سوزی آلگره، وکیل حقوق بشر: "اگر هوش مصنوعی آنقدر پیچیده است که نمی توان آن را توضیح داد، جاهایی وجود دارد که نباید از آن استفاده کرد."

سوزی آلگره یک وکیل و نویسنده بین‌المللی حقوق بشر است که اصالتاً اهل جزیره من است و در سال‌های اخیر تمرکزش بر فناوری و تأثیر آن بر حقوق بشر بوده است. او به عنوان یک کارشناس حقوقی به عفو بین‌الملل، سازمان ملل و سایر سازمان‌ها در مورد موضوعاتی مانند مبارزه با تروریسم و ​​مبارزه با فساد مشاوره داده است. اولین کتاب او، آزادی فکر، که در سال 2022 منتشر شد و در فهرست نهایی جایزه کریستوفر بلاند قرار گرفت، به تاریخچه آزادی های قانونی پیرامون اندیشه می پردازد. او در کتاب جدید خود، حقوق بشر، اشتباهات ربات، توجه خود را به راه‌هایی معطوف می‌کند که هوش مصنوعی حقوق ما را در زمینه‌هایی مانند جنگ، رابطه جنسی و خلاقیت تهدید می‌کند – و اینکه ما برای مقابله با آن چه کنیم.

چه چیزی شما را به نوشتن این کتاب ترغیب کرد؟

دو محرک وجود داشت. یکی انفجار ناگهانی ChatGPT و روایت در مورد اینکه چگونه همه می‌توانند اکنون رمان‌نویس باشند و دیگر نیازی به خالقان انسان نباشد، بود، زیرا هوش مصنوعی می‌تواند همه این کارها را برای ما انجام دهد. کاملاً افسرده کننده بود. دومی داستان مردی بلژیکی بود که پس از شش هفته رابطه فشرده با یک چت ربات هوش مصنوعی جان خود را گرفت. بیوه او احساس می کرد که بدون این رابطه، که جهان بینی او را مخدوش می کرد، او همچنان در کنار او و فرزندانش بود. این باعث شد من فکر کنم - خوب، این کاملاً در مورد حق زندگی است. به زندگی خانوادگی، به آزادی اندیشه و آزادی از دستکاری. و چگونه به هوش مصنوعی و روش های واقعا شدیدی که بر حقوق بشر ما تأثیر می گذارد فکر می کنیم؟

شما اعتبار زیادی به تهدید آخرالزمان هوش مصنوعی نمی دهید.

من فکر می کنم این یک حواس پرتی است. چیزی که ما باید نگران آن باشیم این است که محدودیت هایی در مورد چگونگی توسعه، فروش و استفاده از هوش مصنوعی توسط افراد ایجاد کنیم. و در نهایت، افرادی پشت این فناوری هستند، در مرحله طراحی و به ویژه در بازاریابی، و همچنین در انتخاب هایی که در مورد نحوه استفاده از آن انجام می شود.

همه چیزهایی که در مورد هوش مصنوعی می شنویم نشان می دهد که این هوش مصنوعی با سرعتی باورنکردنی در حال پیشرفت است و این مدل ها در سطوح پیچیدگی کار می کنند که حتی سازندگان آنها نمی توانند درک کنند. چگونه تنظیم‌کننده‌ها می‌توانند امیدوار باشند که این روند را ادامه دهند؟

من فکر می کنم دود و آینه بسیار زیادی وجود دارد. مثل جادوگر شهر اوز، زمانی که توتو پرده را پس می زند و ما می بینیم که پشت سر چه خبر است. بنابراین لازم نیست باور کنیم که همه چیز اجتناب ناپذیر و قادر مطلق است. ما هنوز هم می توانیم انتخاب کنیم و سوال بپرسیم. همچنین، اگر چیزی آنقدر پیچیده است که نمی توان آن را توضیح داد، پس زمینه های خاصی وجود دارد که نباید از آن استفاده کرد.

فناوری بخش خصوصی در حال وارد شدن به زندگی مردم برای جایگزینی روابط انسانی است و این بسیار خطرناک است.

آیا فکر می‌کنید نظام‌های حقوقی موجود و منشورهای حقوق بشر وظیفه مقابله با هوش مصنوعی را دارند یا باید چارچوب جدیدی ایجاد کنیم؟

من فکر نمی‌کنم که ما به چارچوب جدیدی نیاز داشته باشیم، اما آنچه واقعاً به آن نیاز داریم دسترسی به عدالت است. ممکن است راه های قانونی خاصی وجود داشته باشد که باید توسعه یابد. اما یکی از چالش های واقعا اساسی این است که چگونه می توان عقب نشینی کرد؟ چگونه مقررات را اجرا می کنید؟ و این همان چیزی است که در رابطه با برخی از شرکت‌های بزرگ فناوری دیده‌ایم: فعالیت‌های آنها غیرقانونی تشخیص داده می‌شود، جریمه‌های هنگفتی برای آنها صادر می‌شود، و هنوز هم ادامه می‌دهند.

شما یک فصل بسیار جالب در مورد ربات های جنسی و چت بات ها دارید. نگرانی های اصلی چیست؟

این یک حوزه کامل بود که قبلاً واقعاً به آن فکر نکرده بودم و از اینکه متوجه شدم استفاده از ربات‌های هوش مصنوعی برای جایگزینی انسان‌ها چقدر گسترده است، بسیار وحشت زده بودم. دلیل اینکه من را نگران کرد این است که این فناوری بخش خصوصی است که برای جایگزینی روابط انسانی در زندگی مردم وارد می شود و از نظر کنترل اجتماعی بسیار خطرناک است. مسئله اخلاق نیست، بلکه این مسئله برای جامعه بشری و توانایی ما برای همکاری و ارتباط چیست؟

آیا هوش مصنوعی خبر خوبی برای افرادی نیست که توانایی پرداخت وکالت قانونی را ندارند؟

بستگی دارد. اگر در مورد اختلافات بسیار ابتدایی صحبت می کنید که فقط به دانستن قوانین مربوط می شود، فناوری می تواند دسترسی را بهبود بخشد. اما وقتی به سؤالات پیچیده‌تری نگاه می‌کنید، مشکل اینجاست که هوش مصنوعی مولد واقعاً قانون را نمی‌داند و می‌تواند حجم زیادی از زباله‌های قدیمی را به شما بدهد - و وقتی چیزی توسط یک ماشین در یک دستگاه معتبر تحویل داده می‌شود. لحن، برای مردم بسیار سخت است که به آن شک کنند.

چه اتفاقی افتاد وقتی از ChatGPT پرسیدید: سوزی آلگر کیست؟

می‌گفت سوزی آلگر وجود ندارد، یا حداقل در اینترنت ظاهر نمی‌شود. با توجه به اینکه اولین کتابم یک سال زودتر منتشر شده بود، احساس می‌کردم کمی خسته شده‌ام. از آن پرسیدم که آزادی فکر کردن را نوشته بود و اولین کسی که به ذهنش رسید یک زیست شناس مرد بود. من بارها و بارها از آن سؤال کردم و 20 نام مختلف به دست آمد که همه آنها مرد بودند به جز یکی. گویی برای ChatGPT این ایده که یک زن کتابی درباره اندیشه بنویسد کاملا غیرقابل تصور بود.

نظر شما در مورد دفاع «استفاده منصفانه» که شرکت‌های چت بات برای دفاع از جمع کردن کلمات و تصاویر برای تغذیه هوش مصنوعی خود استفاده می‌کنند چیست؟

من یک وکیل کپی رایت آمریکایی نیستم، بنابراین واقعاً در این زمینه تخصص ندارم، اما فکر می‌کنم بسیار جالب است که ببینم پرونده‌ها در حوزه‌های قضایی مختلف چگونه می‌شوند. ایالات متحده رویکردی بسیار متفاوت تقریباً در هر جای دنیا در مورد مسائل آزادی بیان و نحوه استفاده از آن برای حمایت از پیشرفت‌های صنعت فناوری دارد. صرف نظر از قانونی بودن دفاع «استفاده منصفانه»، سؤالات زیادی را برای آینده خلاقیت انسانی، روزنامه‌نگاری و فضای اطلاعاتی مطرح می‌کند. و اساساً مشکل اساسی کاهش گسترده دستمزد برای سازندگان است - مسیر کلی به سمت محروم کردن سازندگان از انگیزه‌های اقتصادی بوده است.

اگر همه چیزهایی که در کتاب از نظر مقررات پیشنهاد می کنید محقق شود، آیا این خطر وجود ندارد که نوآوری را خفه کند؟

این ایده که مقررات نوآوری را خفه می کند، کمی کاهی است. کاری که مقررات انجام می دهد این است که نوآوری را در جهت خاصی توسعه می دهد و مسیرهایی را که بسیار مضر هستند را متوقف می کند. در واقع، من فکر می‌کنم خطر معکوس وجود دارد، اینکه اگر به هوش مصنوعی اجازه دهید به روش‌هایی تسلط پیدا کند که توانایی ما در تفکر خودمان را تضعیف کند، ما ظرفیت نوآوری را از دست خواهیم داد.

شما به این نکته اشاره می کنید که هوش مصنوعی فقط یک ابر خوش خیم نیست که بالای سر ما شناور است. این بر اساس استخراج مواد و استثمار کارگران، عمدتاً در جنوب جهانی است، و اجرای آن فوق‌العاده آلاینده است. اما بسیاری از این ها از دید پنهان است. چگونه با این تأثیرات مقابله کنیم؟

سوال بزرگی است. یکی از راه های مقابله با آن، نگاه کردن به موضوع پذیرش هوش مصنوعی از منظر ESG [محیط زیست، اجتماعی و حکومت] است. تمام تجهیزاتی که ما استفاده می‌کنیم، تلفن‌هایی که اکنون با آنها صحبت می‌کنیم، از مواد معدنی که اغلب از مناطق درگیری گرفته شده‌اند، از جمله با کار کودکان ساخته شده‌اند. آگاهی از آن امیدواریم می تواند به تغییر خواسته های اجتماعی و عادات مصرف کننده کمک کند. می توانید از هوش مصنوعی مولد برای ساختن یک میم خنده دار استفاده کنید، اما چقدر آب و انرژی مصرف می کنید؟ آیا نمی‌توانید فقط یک مداد بردارید، و ممکن است واقعاً رضایت‌بخش‌تر باشد؟

آیا گاهی اوقات آرزو می کنید که هوش مصنوعی دوباره در قفسه گذاشته شود؟

این معادله همه یا هیچ نیست بین ممنوعیت هوش مصنوعی یا پذیرش آن در هر جنبه از زندگی شما. این مسئله انتخاب این است که برای چه چیزی از هوش مصنوعی استفاده کنیم. انتقادی بودن و پرسیدن سوال به این معنی نیست که شما مخالف هوش مصنوعی هستید: فقط به این معنی است که شما مخالف تبلیغات هوش مصنوعی هستید.


منبع : The Guardian

🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.