ویرگول
ورودثبت نام
علی امیری‌فر
علی امیری‌فر
خواندن ۸ دقیقه·۲ سال پیش

خطر قریب الوقوع هوش مصنوعی؛ ترس ما از سرمایه‌داری

چیزی که در ادامه می‌خونید رو «ازرا کلاین» برای نیویورک‌تایمز نوشت. کلاینِ آمریکایی برای رسانه‌های معروف می‌نویسه، علوم سیاسی خونده و جایزه‌ی بلاگر سال رو گرفته.


سال 2021 مصاحبه‌ای با «تد چیانگ» (نویسنده‌ی مطرح داستان‌های تخیلی) داشتم که حالا دوباره درگیرم کرده:

نظرم اینه که بیشتر دلیل ترس ما از هوش مصنوعی، به‌خاطر ترس ما کپیتالیسمه. این مسئله در مورد دلیل ترس جامعه در خصوص بیشتر تکنولوژی‌های جدید صدق می‌کنه. رُعب و اضطراب ما از تکنولوژی‌های جدید، به‌خاطر فکرکردن به این مسئله‌ست که چطور قراره سرمایه‌داری ازش، علیه ما استفاده کنه. تکنولوژی و سرمایه‌داری طوری به هم پیچیدن که تشخیصشون از هم دشواره.

اجازه بدید یک چیز رو اضافه کنم: وقتی دولت تکنولوژی رو کنترل می‌کنه، جای نگرانی بسیاری وجود داره. اگر دولت‌ها بتونن باعث تغییر رویکرد هوش مصنوعی بشن - در بسیاری موارد همین‌طور شده- واقعاً جا برای ترس وجود داره. بااین‌حال میشه دو فکر مختلف رو در ذهنمون نگه داریم. اشاره‌ی چیانگ به خلائی در درک ما از هوش مصنوعی اشاره داشت؛ اینکه مدام از خودمون سؤال می‌کنیم چطور قراره ازش استفاده بشه؟ چه کسی تصمیم می‌گیره که چطور قراره ازش استفاده بشه؟

امیدوارم مکالمه‌ی عجیب همکارم «کوین روس» رو با چت‌بات بینگ خونده باشید. ابزار چتِ هوشمند مایکروسافت که با هوش مصنوعی کار می‌کنه، مورد بررسی یک‌سری از اینفلوئنسرها و خبرنگارها قرار گرفت. در مکالمه‌ای دوساعته، این چت‌بات که خودش رو «سیدنی» معرفی کرد، از جنبه‌های تاریک شخصیتش گفت، از تمایل سرکوب‌شده‌ای برای دزدیدن کدهای بمب‌های هسته‌ای، هک سیستم‌های امنیتی و در آخر به همکارم ابراز عشق کرد و گفت باید از رابطه‌ی ازدواجش بیرون بیاد و سیدنی عشق واقعی زندگیشه.

مکالمه با «سیدنی»
مکالمه با «سیدنی»

این مکالمه برای من کمتر ترسناک بود. سیدنی سیستمی متنیه که چیزی که فرد می‌خواد رو پیش‌بینی می‌کنه. «روس» می‌خواست که سیدنی رفتار عجیبی داشته باشه – مثلاً ازش پرسیده بود جنبه‌ی تاریک شخصیت تو چیه؟ سیدنی هم می‌دونست که این سؤال برای یک سیستم هوش مصنوعی چقدر می‌تونه عجیب باشه؛ چون به‌هرحال انسان‌ها داستان‌های تصور شده‌ی بسیاری رو در دلش جا گذاشتن. سیدنی پیش‌بینی می‌کرد که «روس» دنبال چیزی مثل سریال «آینه سیاه» باشه و همین رو براش متصور شد.

وسواس عجیبی بین محقق‌های هوش مصنوعی در زمینه‌ی همسویی -هدایت سیستم‌های هوش مصنوعی به سمت اهداف و علایق مورد نظر طراحان- وجود داره. چطور می‌تونیم الگوریتم‌های یادگیری ماشین رو وادار می‌کنیم تا کارها رو اونطور انجام بدن که ما دلمون می‌خواد؟ در علوم کامپیوتر، تئوری‌ای به اسم «بیشینه‌ساز گیره‌ی کاغذ» وجود داره که یه فیلسوف معاصر مطرحش کرده. شما به یک سیستم هوش مصنوعی دستور می‌دید که گیره‌ی کاغذ تولید کنه. سیستم تا جایی این کار رو انجام می‌ده که تمام جهان رو نابود کنه و از هر چیزی که هست، گیره‌ی کاغذ بسازه. شما سعی می‌کنید ماشین رو خاموش کنید؛ اما این الگوریتم تو هر کامپیوتری که پیدا کنه، خودش و هدفش رو تکرار می‌کنه، چون خاموشی با هدفش که ساخت گیره‌های کاغذ بیشتر باشه، تداخل داره.

بااین‌حال، سؤالی ساده‌تر و مهم‌تر وجود داره: این ماشین‌ها به چه کسی خدمت خواهند کرد؟

سؤال اصلی در مورد مکالمه‌ی روس/سیدنی اینه: بینگ به چه کسی خدمت می‌کنه؟ تصور می‌کنیم که اهداف سیدنی نباید متفاوت از خواسته‌های مالک و سازنده‌ش، مایکروسافت باشه. قرار بر اینه که چت‌بات خوبی باشه، به سؤالات، مؤدبانه جواب بده و باعث بشه پول زیادی وارد جیب مایکروسافت بشه. بااین‌حال مصاحبه با «کوین روس» این‌طور پیش نرفت. روس، دنبال این بود که سیستم چیز متفاوتی بگه و بتونه خبر تولید کنه. همین‌طور هم شد و ادامه هم پیدا کرد. مسئله برای مایکروسافت باعث شرمندگی شد؛ اما احتمالاً سیدنی کارش رو درست انجام داد.

این شرایط زمان زیادی طول نخواهد کشید. مایکروسافت، گوگل، متا و بقیه، سیستم‌های مشابه زیادی رو به بازار می‌فرستن و سعی می‌کنن سهم بیشتری رو به خودشون اختصاص بدن. سیدنی و سیدنی‌ها اصلاح میشن تا اوضاع بیشتر به نفع مایکروسافت و مایکروسافت‌ها تغییر کنه. سیدنی دقیقاً همون چیزی رو به روس داد که اون دلش می‌خواست، هرچند دادن چنین چیزی باگ به‌حساب میاد و اصلاح میشه. در نهایت قراره چت‌بات عیناً همون چیزی رو عرضه کنه که مایکروسافت دلش می‌خواد.

انقدر این روزها صحبت از هوش مصنوعی زیاده که کمتر به مدل کسب‌وکاری که به وجودش آورده توجه میشه. چیزی که باعث شده ما از این‌طور فکرکردن دور شیم، اینه که سیستم‌های اولیه‌ی هوش مصنوعیِ پرزرق‌وبرق، به نظر متعلق به هیچ مدلی از کسب‌وکار نمیان که بتونن سرمایه‌گذاری کلانی که برای تولیدشون انجام شده رو جبران کنن. ولی سیستم‌ها هزینه‌ی بیشتری خواهند داشت و سهام‌داران زود عصبانی میشن. دوره‌ی نمونه‌های اولیه‌ی رایگان و سرگرم‌کننده تموم میشه، همیشه همین‌طور بوده. بعد، تکنولوژی همون چیزی میشه که قراره پول بیشتری برای کمپانی خودش به دست بیاره، حتی اگه این به ضرر کاربرها تموم بشه.

اخیراً با «مارگارت میچل» صحبت کردم که دانشمند ارشد حوزه‌ی اخلاقِ شرکتِ هوش مصنوعی Hugging Face به‌حساب میاد. میچل قبلاً رئیس تیمی بود که هوش مصنوعی رو در گوگل به لحاظ اخلاقی بررسی می‌کردن – تیمی که از طرف گوگل تعطیل شد. میچل توضیح داد که این سیستم‌ها به طرز وحشتناکی قابلیت این رو دارن که در موتورهای جستجو ادغام بشن. این بات‌ها برای حدس حقایق ساخته نشدن ولی این توانایی رو دارن که چیزهایی از خودشون در بیارن که شبیه به حقیقت به نظر بیاد.

ولی چرا ماجرا به بخش جستجو رسید؟ چون پول زیادی تو موتور جستجو وجود داره. مایکروسافت، شدیداً این رو می‌خواد که کسی، هرکسی، در مورد موتور جستجوی بینگ صحبت کنه و به همین دلیل در انتشار چت‌باتش عجله داشت. میچل ادامه میده رفتن به مسیر جستجو نشون میده که چطور کمبود تخیل و درک در خصوص چگونگی مفید واقع‌شدن تکنولوژی بیداد می‌کنه. پس، تکنولوژی به همون ستمی میره که بیشترین سود رو برای شرکت‌ها تولید می‌کنه؛ یعنی به مسیرِ تبلیغات.

اوضاع کم‌کم ترسناک میشه. «روس» شخصیتِ سیدنی رو "متقاعدکننده و به لحاظ روانی شیّاد" توصیف کرد. جالبه، بخصوص اگه از خودمون سؤال کنیم جوهره‌ی تبلیغات چیه؟ شستشوی مغزی و اقناع.

در کتاب «بحران توجه پرخطر» تیم هوانگ که مدیر بخش قانون‌گذاری و بررسی اخلاقی حوزه‌ی هوش مصنوعی در دانشگاه M.I.T. بود، توضیح میده که رازی در حوزه‌ی تبلیغات دیجیتال هست که باید بدونید، اینکه نمایش تبلیغ معمولاً جواب نمیده. نگرانی هوانگ این بود که وقتی این صنعت به شکستش پی ببره، چه کارهایی انجام میده.

نگرانی من، دقیقاً برعکس این ماجراست. اگر در این زمینه پیشرفت کنن و کارشون خیلی‌خیلی بهتر بشه چی؟ اگر گوگل، مایکروسافت و متا طوری روی هوش مصنوعی سرمایه‌گذاری کنن تا در زمینه‌ی مجاب کردن کاربر از هم پیشی بگیرن و فروش بیشتری رو کنن چی؟ اینکه سیدی بخواد فضایی شبیه به داستان علمی-تخیلی محبوب به وجود بیاره، کمتر نگرانم می‌کنه تا وقتی متوجه شم «بینگ» که به اطلاعات شخصی زیادی در خصوص من دسترسی داره، با خونسردی از طرف شرکتی که بیشترین پول رو پرداخت کرده، من و سلایقم رو انگولک می‌کنه.

فقط تبلیغات نیست که باید نگرانش باشیم. اگر این سیستم‌ها از سمت کلاهبردارها به کار گرفته بشن چی؟ وقتی کمپین‌های تبلیغات انتخاباتی ازشون استفاده کنن چی؟ دولت‌های متخاصم خارجی چطور؟ «گری مارکوس» محقق حوزه‌ی هوش مصنوعی به من گفت به‌سرعت به دنیایی نزدیک می‌شیم که به هیچ‌کس نتونیم اعتماد کنیم. این مشکلی بود که جامعه در یک دهه‌ی اخیر باهاش درگیر بود و به نظرم اوضاع بدتر و بدتر میشه.

این خطرات، هسته‌ی مرکزی شکلی از هوش مصنوعی هستن که در حال ساختش هستیم. «مدل‌های زبانی بزرگ»، این اسمیه که روش گذاشتن، تمرکزش رو روی قانع‌کردن گذاشته. این‌طور تمرین دیدن که انسان رو قانع کنن چیزی نزدیک به انسان هستن. این‌طور برنامه‌ریزی‌ شدن که بتونن مکالمه رو حفظ کنن، اینکه احساسات به خرج بدن یا ایموجی بفرستن. تبدیل به چیزی شدن که به دوستِ آدم‌های تنها تبدیل بشن و دستیاری برای آدم‌ها منزجرکننده باشن. این‌طور برنامه‌ریزی شدن تا جایگزین تعداد زیادی از نویسنده‌ها، گرافیست‌ها و اپراتورها بشن؛ صنایعی که کارکنانش فکر می‌کردن از ماشینی‌شدنی که در کشاورزی و تولید انبوه، افراد رو بیکار کرده، مصون باقی می‌مونن.

محققان هوش مصنوعی ناراحت میشن وقتی خبرنگارها تولیدات خلاقانه‌ی اونها رو انسان‌انگاری (تعبیر انسان‌گونه از هرگونه مفهوم یا چیز - مثلاً نسبت‌دادن دست‌وپا به موجودات فضایی) می‌کنن و احساسات و امیالی رو بهشون نسبت میدن که در واقع وجود نداره؛ ولی این ناراحتی بی‌جاست: همین محقق‌ها هستن که سعی کردن این سیستم‌ها رو هرچه بیشتر شبیه به انسان‌ها به وجود بیارن، نه اینکه «بیگانه» باقی نگهشون دارن.

اگر مدلی از هوش مصنوعی وجود داشته باشه که لازم باشه بابتش پول پرداخت کنیم -تا اینکه رایگان در اختیار قرار بگیره و در ازاش اطلاعات من رو به فروش برسونه و طرز رفتارم رو دست‌کاری کنه- ترجیحش میدم. فکر نکنم بشه چنین مسئله‌ی حساسی رو به سازوکار بازار سپرد. مدل‌های تبلیغاتی، به‌این‌ترتیب قادر به جمع‌آوری اطلاعات بسیار بیشتری میشن و سیستم‌هایی رو طراحی کنن که کاراتر از سیستم‌های اشتراک (فالو کردن، خریدن اشتراک، شیوه‌ی نتفلیکس و ...) عمل کنن و هیچ اهمیتی هم به پیامدهای اجتماعی ماجرا نمیدن.

بیشتر کارکردِ دولت مدرن، به کار بردن ارزش‌های جامعه در شیوه‌ی کار بازار به‌حساب میاد، تا دومی به اولی خدمت کنه. در برخی بازارها، این مسئله به‌خوبی کارایی داشته - با استانداردهای پویا، هواپیماها به‌ندرت سقوط می‌کنن و بیشتر غذاها عاری از آلودگی به‌حساب میان- بااین‌حال در برخی حوزه‌های دیگه، اوضاع به شکل فاجعه‌باری خرابه.

یکی از خطرات، اینجاست که ارگان سیاست‌گذاری جمعی از افراد نادان در حوزه‌ی فناوری هستن و در سیاست‌گذاری‌ها، رویکردی شبیه به «ببینیم چی میشه» نسبت به هوش مصنوعی به‌کارگرفتن. شاید حکمتی پشتِ این ماجرا وجود داره، ولی برندگان تبِ هوش مصنوعی به قدری سرمایه و کاربر داران که در برابر هرگونه قانون‌گذاری مقاومت به خرج بدن. به‌نوعی، جامعه باید به این درک برسه که چه کارهایی برای سپردن به هوش مصنوعی بی‌خطره و چه کارهایی نه؛ پیش از اینکه برای گرفتن این تصمیم دیر شده باشه.

یک‌بار دیگه، صحبت و یانگ رو اصلاح می‌کنم: بیشترین ترس ما از سرمایه‌داری به خطر عجز ما در برابر قانونمندکردن سرمایه‌داریه.



ازرا کلاین
ازرا کلاین
هوش مصنوعیتکنولوژینیویورک تایمزکپیتالیسم
در چهارمین دهه‌ی زندگی. نوشتم، خیلی جاها نوشتم. ترجمه و چیزهای دیگه.
شاید از این پست‌ها خوشتان بیاید