چیزی که در ادامه میخونید رو «ازرا کلاین» برای نیویورکتایمز نوشت. کلاینِ آمریکایی برای رسانههای معروف مینویسه، علوم سیاسی خونده و جایزهی بلاگر سال رو گرفته.
سال 2021 مصاحبهای با «تد چیانگ» (نویسندهی مطرح داستانهای تخیلی) داشتم که حالا دوباره درگیرم کرده:
نظرم اینه که بیشتر دلیل ترس ما از هوش مصنوعی، بهخاطر ترس ما کپیتالیسمه. این مسئله در مورد دلیل ترس جامعه در خصوص بیشتر تکنولوژیهای جدید صدق میکنه. رُعب و اضطراب ما از تکنولوژیهای جدید، بهخاطر فکرکردن به این مسئلهست که چطور قراره سرمایهداری ازش، علیه ما استفاده کنه. تکنولوژی و سرمایهداری طوری به هم پیچیدن که تشخیصشون از هم دشواره.
اجازه بدید یک چیز رو اضافه کنم: وقتی دولت تکنولوژی رو کنترل میکنه، جای نگرانی بسیاری وجود داره. اگر دولتها بتونن باعث تغییر رویکرد هوش مصنوعی بشن - در بسیاری موارد همینطور شده- واقعاً جا برای ترس وجود داره. بااینحال میشه دو فکر مختلف رو در ذهنمون نگه داریم. اشارهی چیانگ به خلائی در درک ما از هوش مصنوعی اشاره داشت؛ اینکه مدام از خودمون سؤال میکنیم چطور قراره ازش استفاده بشه؟ چه کسی تصمیم میگیره که چطور قراره ازش استفاده بشه؟
امیدوارم مکالمهی عجیب همکارم «کوین روس» رو با چتبات بینگ خونده باشید. ابزار چتِ هوشمند مایکروسافت که با هوش مصنوعی کار میکنه، مورد بررسی یکسری از اینفلوئنسرها و خبرنگارها قرار گرفت. در مکالمهای دوساعته، این چتبات که خودش رو «سیدنی» معرفی کرد، از جنبههای تاریک شخصیتش گفت، از تمایل سرکوبشدهای برای دزدیدن کدهای بمبهای هستهای، هک سیستمهای امنیتی و در آخر به همکارم ابراز عشق کرد و گفت باید از رابطهی ازدواجش بیرون بیاد و سیدنی عشق واقعی زندگیشه.
این مکالمه برای من کمتر ترسناک بود. سیدنی سیستمی متنیه که چیزی که فرد میخواد رو پیشبینی میکنه. «روس» میخواست که سیدنی رفتار عجیبی داشته باشه – مثلاً ازش پرسیده بود جنبهی تاریک شخصیت تو چیه؟ سیدنی هم میدونست که این سؤال برای یک سیستم هوش مصنوعی چقدر میتونه عجیب باشه؛ چون بههرحال انسانها داستانهای تصور شدهی بسیاری رو در دلش جا گذاشتن. سیدنی پیشبینی میکرد که «روس» دنبال چیزی مثل سریال «آینه سیاه» باشه و همین رو براش متصور شد.
وسواس عجیبی بین محققهای هوش مصنوعی در زمینهی همسویی -هدایت سیستمهای هوش مصنوعی به سمت اهداف و علایق مورد نظر طراحان- وجود داره. چطور میتونیم الگوریتمهای یادگیری ماشین رو وادار میکنیم تا کارها رو اونطور انجام بدن که ما دلمون میخواد؟ در علوم کامپیوتر، تئوریای به اسم «بیشینهساز گیرهی کاغذ» وجود داره که یه فیلسوف معاصر مطرحش کرده. شما به یک سیستم هوش مصنوعی دستور میدید که گیرهی کاغذ تولید کنه. سیستم تا جایی این کار رو انجام میده که تمام جهان رو نابود کنه و از هر چیزی که هست، گیرهی کاغذ بسازه. شما سعی میکنید ماشین رو خاموش کنید؛ اما این الگوریتم تو هر کامپیوتری که پیدا کنه، خودش و هدفش رو تکرار میکنه، چون خاموشی با هدفش که ساخت گیرههای کاغذ بیشتر باشه، تداخل داره.
بااینحال، سؤالی سادهتر و مهمتر وجود داره: این ماشینها به چه کسی خدمت خواهند کرد؟
سؤال اصلی در مورد مکالمهی روس/سیدنی اینه: بینگ به چه کسی خدمت میکنه؟ تصور میکنیم که اهداف سیدنی نباید متفاوت از خواستههای مالک و سازندهش، مایکروسافت باشه. قرار بر اینه که چتبات خوبی باشه، به سؤالات، مؤدبانه جواب بده و باعث بشه پول زیادی وارد جیب مایکروسافت بشه. بااینحال مصاحبه با «کوین روس» اینطور پیش نرفت. روس، دنبال این بود که سیستم چیز متفاوتی بگه و بتونه خبر تولید کنه. همینطور هم شد و ادامه هم پیدا کرد. مسئله برای مایکروسافت باعث شرمندگی شد؛ اما احتمالاً سیدنی کارش رو درست انجام داد.
این شرایط زمان زیادی طول نخواهد کشید. مایکروسافت، گوگل، متا و بقیه، سیستمهای مشابه زیادی رو به بازار میفرستن و سعی میکنن سهم بیشتری رو به خودشون اختصاص بدن. سیدنی و سیدنیها اصلاح میشن تا اوضاع بیشتر به نفع مایکروسافت و مایکروسافتها تغییر کنه. سیدنی دقیقاً همون چیزی رو به روس داد که اون دلش میخواست، هرچند دادن چنین چیزی باگ بهحساب میاد و اصلاح میشه. در نهایت قراره چتبات عیناً همون چیزی رو عرضه کنه که مایکروسافت دلش میخواد.
انقدر این روزها صحبت از هوش مصنوعی زیاده که کمتر به مدل کسبوکاری که به وجودش آورده توجه میشه. چیزی که باعث شده ما از اینطور فکرکردن دور شیم، اینه که سیستمهای اولیهی هوش مصنوعیِ پرزرقوبرق، به نظر متعلق به هیچ مدلی از کسبوکار نمیان که بتونن سرمایهگذاری کلانی که برای تولیدشون انجام شده رو جبران کنن. ولی سیستمها هزینهی بیشتری خواهند داشت و سهامداران زود عصبانی میشن. دورهی نمونههای اولیهی رایگان و سرگرمکننده تموم میشه، همیشه همینطور بوده. بعد، تکنولوژی همون چیزی میشه که قراره پول بیشتری برای کمپانی خودش به دست بیاره، حتی اگه این به ضرر کاربرها تموم بشه.
اخیراً با «مارگارت میچل» صحبت کردم که دانشمند ارشد حوزهی اخلاقِ شرکتِ هوش مصنوعی Hugging Face بهحساب میاد. میچل قبلاً رئیس تیمی بود که هوش مصنوعی رو در گوگل به لحاظ اخلاقی بررسی میکردن – تیمی که از طرف گوگل تعطیل شد. میچل توضیح داد که این سیستمها به طرز وحشتناکی قابلیت این رو دارن که در موتورهای جستجو ادغام بشن. این باتها برای حدس حقایق ساخته نشدن ولی این توانایی رو دارن که چیزهایی از خودشون در بیارن که شبیه به حقیقت به نظر بیاد.
ولی چرا ماجرا به بخش جستجو رسید؟ چون پول زیادی تو موتور جستجو وجود داره. مایکروسافت، شدیداً این رو میخواد که کسی، هرکسی، در مورد موتور جستجوی بینگ صحبت کنه و به همین دلیل در انتشار چتباتش عجله داشت. میچل ادامه میده رفتن به مسیر جستجو نشون میده که چطور کمبود تخیل و درک در خصوص چگونگی مفید واقعشدن تکنولوژی بیداد میکنه. پس، تکنولوژی به همون ستمی میره که بیشترین سود رو برای شرکتها تولید میکنه؛ یعنی به مسیرِ تبلیغات.
اوضاع کمکم ترسناک میشه. «روس» شخصیتِ سیدنی رو "متقاعدکننده و به لحاظ روانی شیّاد" توصیف کرد. جالبه، بخصوص اگه از خودمون سؤال کنیم جوهرهی تبلیغات چیه؟ شستشوی مغزی و اقناع.
در کتاب «بحران توجه پرخطر» تیم هوانگ که مدیر بخش قانونگذاری و بررسی اخلاقی حوزهی هوش مصنوعی در دانشگاه M.I.T. بود، توضیح میده که رازی در حوزهی تبلیغات دیجیتال هست که باید بدونید، اینکه نمایش تبلیغ معمولاً جواب نمیده. نگرانی هوانگ این بود که وقتی این صنعت به شکستش پی ببره، چه کارهایی انجام میده.
نگرانی من، دقیقاً برعکس این ماجراست. اگر در این زمینه پیشرفت کنن و کارشون خیلیخیلی بهتر بشه چی؟ اگر گوگل، مایکروسافت و متا طوری روی هوش مصنوعی سرمایهگذاری کنن تا در زمینهی مجاب کردن کاربر از هم پیشی بگیرن و فروش بیشتری رو کنن چی؟ اینکه سیدی بخواد فضایی شبیه به داستان علمی-تخیلی محبوب به وجود بیاره، کمتر نگرانم میکنه تا وقتی متوجه شم «بینگ» که به اطلاعات شخصی زیادی در خصوص من دسترسی داره، با خونسردی از طرف شرکتی که بیشترین پول رو پرداخت کرده، من و سلایقم رو انگولک میکنه.
فقط تبلیغات نیست که باید نگرانش باشیم. اگر این سیستمها از سمت کلاهبردارها به کار گرفته بشن چی؟ وقتی کمپینهای تبلیغات انتخاباتی ازشون استفاده کنن چی؟ دولتهای متخاصم خارجی چطور؟ «گری مارکوس» محقق حوزهی هوش مصنوعی به من گفت بهسرعت به دنیایی نزدیک میشیم که به هیچکس نتونیم اعتماد کنیم. این مشکلی بود که جامعه در یک دههی اخیر باهاش درگیر بود و به نظرم اوضاع بدتر و بدتر میشه.
این خطرات، هستهی مرکزی شکلی از هوش مصنوعی هستن که در حال ساختش هستیم. «مدلهای زبانی بزرگ»، این اسمیه که روش گذاشتن، تمرکزش رو روی قانعکردن گذاشته. اینطور تمرین دیدن که انسان رو قانع کنن چیزی نزدیک به انسان هستن. اینطور برنامهریزی شدن که بتونن مکالمه رو حفظ کنن، اینکه احساسات به خرج بدن یا ایموجی بفرستن. تبدیل به چیزی شدن که به دوستِ آدمهای تنها تبدیل بشن و دستیاری برای آدمها منزجرکننده باشن. اینطور برنامهریزی شدن تا جایگزین تعداد زیادی از نویسندهها، گرافیستها و اپراتورها بشن؛ صنایعی که کارکنانش فکر میکردن از ماشینیشدنی که در کشاورزی و تولید انبوه، افراد رو بیکار کرده، مصون باقی میمونن.
محققان هوش مصنوعی ناراحت میشن وقتی خبرنگارها تولیدات خلاقانهی اونها رو انسانانگاری (تعبیر انسانگونه از هرگونه مفهوم یا چیز - مثلاً نسبتدادن دستوپا به موجودات فضایی) میکنن و احساسات و امیالی رو بهشون نسبت میدن که در واقع وجود نداره؛ ولی این ناراحتی بیجاست: همین محققها هستن که سعی کردن این سیستمها رو هرچه بیشتر شبیه به انسانها به وجود بیارن، نه اینکه «بیگانه» باقی نگهشون دارن.
اگر مدلی از هوش مصنوعی وجود داشته باشه که لازم باشه بابتش پول پرداخت کنیم -تا اینکه رایگان در اختیار قرار بگیره و در ازاش اطلاعات من رو به فروش برسونه و طرز رفتارم رو دستکاری کنه- ترجیحش میدم. فکر نکنم بشه چنین مسئلهی حساسی رو به سازوکار بازار سپرد. مدلهای تبلیغاتی، بهاینترتیب قادر به جمعآوری اطلاعات بسیار بیشتری میشن و سیستمهایی رو طراحی کنن که کاراتر از سیستمهای اشتراک (فالو کردن، خریدن اشتراک، شیوهی نتفلیکس و ...) عمل کنن و هیچ اهمیتی هم به پیامدهای اجتماعی ماجرا نمیدن.
بیشتر کارکردِ دولت مدرن، به کار بردن ارزشهای جامعه در شیوهی کار بازار بهحساب میاد، تا دومی به اولی خدمت کنه. در برخی بازارها، این مسئله بهخوبی کارایی داشته - با استانداردهای پویا، هواپیماها بهندرت سقوط میکنن و بیشتر غذاها عاری از آلودگی بهحساب میان- بااینحال در برخی حوزههای دیگه، اوضاع به شکل فاجعهباری خرابه.
یکی از خطرات، اینجاست که ارگان سیاستگذاری جمعی از افراد نادان در حوزهی فناوری هستن و در سیاستگذاریها، رویکردی شبیه به «ببینیم چی میشه» نسبت به هوش مصنوعی بهکارگرفتن. شاید حکمتی پشتِ این ماجرا وجود داره، ولی برندگان تبِ هوش مصنوعی به قدری سرمایه و کاربر داران که در برابر هرگونه قانونگذاری مقاومت به خرج بدن. بهنوعی، جامعه باید به این درک برسه که چه کارهایی برای سپردن به هوش مصنوعی بیخطره و چه کارهایی نه؛ پیش از اینکه برای گرفتن این تصمیم دیر شده باشه.
یکبار دیگه، صحبت و یانگ رو اصلاح میکنم: بیشترین ترس ما از سرمایهداری به خطر عجز ما در برابر قانونمندکردن سرمایهداریه.