خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
سوزی آلگره، وکیل حقوق بشر: "اگر هوش مصنوعی آنقدر پیچیده است که نمی توان آن را توضیح داد، جاهایی وجود دارد که نباید از آن استفاده کرد."
سوزی آلگره یک وکیل و نویسنده بینالمللی حقوق بشر است که اصالتاً اهل جزیره من است و در سالهای اخیر تمرکزش بر فناوری و تأثیر آن بر حقوق بشر بوده است. او به عنوان یک کارشناس حقوقی به عفو بینالملل، سازمان ملل و سایر سازمانها در مورد موضوعاتی مانند مبارزه با تروریسم و مبارزه با فساد مشاوره داده است. اولین کتاب او، آزادی فکر، که در سال 2022 منتشر شد و در فهرست نهایی جایزه کریستوفر بلاند قرار گرفت، به تاریخچه آزادی های قانونی پیرامون اندیشه می پردازد. او در کتاب جدید خود، حقوق بشر، اشتباهات ربات، توجه خود را به راههایی معطوف میکند که هوش مصنوعی حقوق ما را در زمینههایی مانند جنگ، رابطه جنسی و خلاقیت تهدید میکند – و اینکه ما برای مقابله با آن چه کنیم.
چه چیزی شما را به نوشتن این کتاب ترغیب کرد؟
دو محرک وجود داشت. یکی انفجار ناگهانی ChatGPT و روایت در مورد اینکه چگونه همه میتوانند اکنون رماننویس باشند و دیگر نیازی به خالقان انسان نباشد، بود، زیرا هوش مصنوعی میتواند همه این کارها را برای ما انجام دهد. کاملاً افسرده کننده بود. دومی داستان مردی بلژیکی بود که پس از شش هفته رابطه فشرده با یک چت ربات هوش مصنوعی جان خود را گرفت. بیوه او احساس می کرد که بدون این رابطه، که جهان بینی او را مخدوش می کرد، او همچنان در کنار او و فرزندانش بود. این باعث شد من فکر کنم - خوب، این کاملاً در مورد حق زندگی است. به زندگی خانوادگی، به آزادی اندیشه و آزادی از دستکاری. و چگونه به هوش مصنوعی و روش های واقعا شدیدی که بر حقوق بشر ما تأثیر می گذارد فکر می کنیم؟
شما اعتبار زیادی به تهدید آخرالزمان هوش مصنوعی نمی دهید.
من فکر می کنم این یک حواس پرتی است. چیزی که ما باید نگران آن باشیم این است که محدودیت هایی در مورد چگونگی توسعه، فروش و استفاده از هوش مصنوعی توسط افراد ایجاد کنیم. و در نهایت، افرادی پشت این فناوری هستند، در مرحله طراحی و به ویژه در بازاریابی، و همچنین در انتخاب هایی که در مورد نحوه استفاده از آن انجام می شود.
همه چیزهایی که در مورد هوش مصنوعی می شنویم نشان می دهد که این هوش مصنوعی با سرعتی باورنکردنی در حال پیشرفت است و این مدل ها در سطوح پیچیدگی کار می کنند که حتی سازندگان آنها نمی توانند درک کنند. چگونه تنظیمکنندهها میتوانند امیدوار باشند که این روند را ادامه دهند؟
من فکر می کنم دود و آینه بسیار زیادی وجود دارد. مثل جادوگر شهر اوز، زمانی که توتو پرده را پس می زند و ما می بینیم که پشت سر چه خبر است. بنابراین لازم نیست باور کنیم که همه چیز اجتناب ناپذیر و قادر مطلق است. ما هنوز هم می توانیم انتخاب کنیم و سوال بپرسیم. همچنین، اگر چیزی آنقدر پیچیده است که نمی توان آن را توضیح داد، پس زمینه های خاصی وجود دارد که نباید از آن استفاده کرد.
فناوری بخش خصوصی در حال وارد شدن به زندگی مردم برای جایگزینی روابط انسانی است و این بسیار خطرناک است.
آیا فکر میکنید نظامهای حقوقی موجود و منشورهای حقوق بشر وظیفه مقابله با هوش مصنوعی را دارند یا باید چارچوب جدیدی ایجاد کنیم؟
من فکر نمیکنم که ما به چارچوب جدیدی نیاز داشته باشیم، اما آنچه واقعاً به آن نیاز داریم دسترسی به عدالت است. ممکن است راه های قانونی خاصی وجود داشته باشد که باید توسعه یابد. اما یکی از چالش های واقعا اساسی این است که چگونه می توان عقب نشینی کرد؟ چگونه مقررات را اجرا می کنید؟ و این همان چیزی است که در رابطه با برخی از شرکتهای بزرگ فناوری دیدهایم: فعالیتهای آنها غیرقانونی تشخیص داده میشود، جریمههای هنگفتی برای آنها صادر میشود، و هنوز هم ادامه میدهند.
شما یک فصل بسیار جالب در مورد ربات های جنسی و چت بات ها دارید. نگرانی های اصلی چیست؟
این یک حوزه کامل بود که قبلاً واقعاً به آن فکر نکرده بودم و از اینکه متوجه شدم استفاده از رباتهای هوش مصنوعی برای جایگزینی انسانها چقدر گسترده است، بسیار وحشت زده بودم. دلیل اینکه من را نگران کرد این است که این فناوری بخش خصوصی است که برای جایگزینی روابط انسانی در زندگی مردم وارد می شود و از نظر کنترل اجتماعی بسیار خطرناک است. مسئله اخلاق نیست، بلکه این مسئله برای جامعه بشری و توانایی ما برای همکاری و ارتباط چیست؟
آیا هوش مصنوعی خبر خوبی برای افرادی نیست که توانایی پرداخت وکالت قانونی را ندارند؟
بستگی دارد. اگر در مورد اختلافات بسیار ابتدایی صحبت می کنید که فقط به دانستن قوانین مربوط می شود، فناوری می تواند دسترسی را بهبود بخشد. اما وقتی به سؤالات پیچیدهتری نگاه میکنید، مشکل اینجاست که هوش مصنوعی مولد واقعاً قانون را نمیداند و میتواند حجم زیادی از زبالههای قدیمی را به شما بدهد - و وقتی چیزی توسط یک ماشین در یک دستگاه معتبر تحویل داده میشود. لحن، برای مردم بسیار سخت است که به آن شک کنند.
چه اتفاقی افتاد وقتی از ChatGPT پرسیدید: سوزی آلگر کیست؟
میگفت سوزی آلگر وجود ندارد، یا حداقل در اینترنت ظاهر نمیشود. با توجه به اینکه اولین کتابم یک سال زودتر منتشر شده بود، احساس میکردم کمی خسته شدهام. از آن پرسیدم که آزادی فکر کردن را نوشته بود و اولین کسی که به ذهنش رسید یک زیست شناس مرد بود. من بارها و بارها از آن سؤال کردم و 20 نام مختلف به دست آمد که همه آنها مرد بودند به جز یکی. گویی برای ChatGPT این ایده که یک زن کتابی درباره اندیشه بنویسد کاملا غیرقابل تصور بود.
نظر شما در مورد دفاع «استفاده منصفانه» که شرکتهای چت بات برای دفاع از جمع کردن کلمات و تصاویر برای تغذیه هوش مصنوعی خود استفاده میکنند چیست؟
من یک وکیل کپی رایت آمریکایی نیستم، بنابراین واقعاً در این زمینه تخصص ندارم، اما فکر میکنم بسیار جالب است که ببینم پروندهها در حوزههای قضایی مختلف چگونه میشوند. ایالات متحده رویکردی بسیار متفاوت تقریباً در هر جای دنیا در مورد مسائل آزادی بیان و نحوه استفاده از آن برای حمایت از پیشرفتهای صنعت فناوری دارد. صرف نظر از قانونی بودن دفاع «استفاده منصفانه»، سؤالات زیادی را برای آینده خلاقیت انسانی، روزنامهنگاری و فضای اطلاعاتی مطرح میکند. و اساساً مشکل اساسی کاهش گسترده دستمزد برای سازندگان است - مسیر کلی به سمت محروم کردن سازندگان از انگیزههای اقتصادی بوده است.
اگر همه چیزهایی که در کتاب از نظر مقررات پیشنهاد می کنید محقق شود، آیا این خطر وجود ندارد که نوآوری را خفه کند؟
این ایده که مقررات نوآوری را خفه می کند، کمی کاهی است. کاری که مقررات انجام می دهد این است که نوآوری را در جهت خاصی توسعه می دهد و مسیرهایی را که بسیار مضر هستند را متوقف می کند. در واقع، من فکر میکنم خطر معکوس وجود دارد، اینکه اگر به هوش مصنوعی اجازه دهید به روشهایی تسلط پیدا کند که توانایی ما در تفکر خودمان را تضعیف کند، ما ظرفیت نوآوری را از دست خواهیم داد.
شما به این نکته اشاره می کنید که هوش مصنوعی فقط یک ابر خوش خیم نیست که بالای سر ما شناور است. این بر اساس استخراج مواد و استثمار کارگران، عمدتاً در جنوب جهانی است، و اجرای آن فوقالعاده آلاینده است. اما بسیاری از این ها از دید پنهان است. چگونه با این تأثیرات مقابله کنیم؟
سوال بزرگی است. یکی از راه های مقابله با آن، نگاه کردن به موضوع پذیرش هوش مصنوعی از منظر ESG [محیط زیست، اجتماعی و حکومت] است. تمام تجهیزاتی که ما استفاده میکنیم، تلفنهایی که اکنون با آنها صحبت میکنیم، از مواد معدنی که اغلب از مناطق درگیری گرفته شدهاند، از جمله با کار کودکان ساخته شدهاند. آگاهی از آن امیدواریم می تواند به تغییر خواسته های اجتماعی و عادات مصرف کننده کمک کند. می توانید از هوش مصنوعی مولد برای ساختن یک میم خنده دار استفاده کنید، اما چقدر آب و انرژی مصرف می کنید؟ آیا نمیتوانید فقط یک مداد بردارید، و ممکن است واقعاً رضایتبخشتر باشد؟
آیا گاهی اوقات آرزو می کنید که هوش مصنوعی دوباره در قفسه گذاشته شود؟
این معادله همه یا هیچ نیست بین ممنوعیت هوش مصنوعی یا پذیرش آن در هر جنبه از زندگی شما. این مسئله انتخاب این است که برای چه چیزی از هوش مصنوعی استفاده کنیم. انتقادی بودن و پرسیدن سوال به این معنی نیست که شما مخالف هوش مصنوعی هستید: فقط به این معنی است که شما مخالف تبلیغات هوش مصنوعی هستید.
منبع : The Guardian
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
استفاده از ایده های نظریه بازی ها برای بهبود قابلیت اطمینان مدل های زبانی
مطلبی دیگر از این انتشارات
ایلان ماسک متوجه شد که به تیم سوپرشارژر خود نیاز دارد آن هم چند هفته بعد از اینکه کل بخش را از بین برد
مطلبی دیگر از این انتشارات
آیا RAG میتواند مشکل توهم هوشمصنوعی را حل کند؟