نوشته آریانا هافینگتون
8 اکتبر 2024
عصر هوش مصنوعی، بحثهای زیادی در مورد این فناوری به راه انداخته است. یووال نوح هراری، نویسنده کتابهای انسان خردمند و انسان خداگونه، که از متفکران برجسته در زمینه تاریخ و آینده بشر است، در کتاب جدید خود نکسوس: تاریخ مختصر شبکههای اطلاعات از عصر سنگ تا هوش مصنوعی، به این موضوع پرداخته است.
هراری معمولاً در دسته افرادی قرار میگیرد که نسبت به هوش مصنوعی نگران هستند، اما تفکر او فراتر از بحثهای معمول در این زمینه است. او به تاریخ بشر از دیدگاه گردآوری و مدیریت اطلاعات نگاه میکند. به نظر هراری، این موضوع بسیار مهم است، زیرا نحوه استفاده و سوءاستفاده ما از اطلاعات، هم بر تاریخ ما تأثیر گذاشته و هم آینده ما با هوش مصنوعی را شکل خواهد داد.
هراری مفهومی به نام «دیدگاه سادهلوحانه اطلاعات» را مطرح میکند که در آن، انسانها فرض میکنند دسترسی بیشتر به اطلاعات لزوماً به درک بیشتر و حتی خرد منجر میشود. اما این واقعیت ندارد. او میپرسد: «اگر ما اینقدر خردمند هستیم، چرا اینقدر خود ویرانگر هستیم؟» چرا چیزهایی تولید میکنیم که اگر نتوانیم کنترلشان کنیم، ممکن است ما را نابود کنند؟
به اعتقاد هراری، مشکل نه در خودمان بلکه در شبکههای اطلاعاتی ماست. اطلاعات نادرست منجر به تصمیمات نادرست میشود. همانطور که مصرف فزاینده غذاهای ناسالم برای ما مضر است، مصرف بیش از حد اطلاعات نادرست هم آسیبزننده است.
او استدلال میکند که مشکل هوش مصنوعی این است که «هوش مصنوعی ابزار نیست، بلکه یک عامل است.» بر خلاف دیگر ابزارهای بالقوه خطرناک، «هوش مصنوعی میتواند خود به تنهایی اطلاعات را پردازش کند و در نتیجه جای انسانها را در تصمیمگیری بگیرد.» این اتفاق تا حدودی از هماکنون در حال وقوع است. به عنوان مثال، نحوه استفاده از الگوریتمهای فیسبوک در میانمار؛ الگوریتمها یاد گرفتهاند که خشم، تعامل ایجاد میکند و بدون هیچ دستوری از سوی مسئولان، خشم را تقویت کردهاند.
جایی که من با هراری تفاوت نظر دارم این است که او به نظر میرسد ذات بشر را ثابت میداند و الگوریتمها را به عنوان ابزاری برای بهرهبرداری از ضعفها و تعصبات انسانی تلقی میکند. البته هراری اذعان میکند که «به عنوان یک مورخ به امکان تغییر باور دارم»، اما این امکان در سطح فردی کمتر به چشم میخورد و تمرکز او بیشتر بر سیستمها و نهادهاست تا افراد.
هراری خطرات هوش مصنوعی را نه به دلیل «شرارت کامپیوترها»، بلکه به دلیل نقصهای خودمان میداند. اما او قدرت ما برای تحول را دستکم میگیرد. آلکساندر سولژنیتسین، که از کسانی بود که با سیستمهایی که به طور بدخواهانه از شبکههای اطلاعات استفاده میکردند آشنا بود، همچنان باور داشت که مبارزه نهایی در درون هر انسان رخ میدهد: «مرز بین خوب و بد نه از بین دولتها میگذرد، نه از بین طبقات و احزاب سیاسی، بلکه از قلب هر انسان.»
پس بله، هوش مصنوعی و الگوریتمها قطعاً به بهرهبرداری از بدترین ویژگیهای ما ادامه خواهند داد. اما این فناوری میتواند برای تقویت بهترین ویژگیهای ما نیز مورد استفاده قرار گیرد. هراری خودش اذعان میکند که «در کنار حرص، تکبر و بیرحمی، انسانها توانایی عشق، شفقت، فروتنی و شادی هم دارند.» پس چرا فرض کنیم که هوش مصنوعی فقط برای بهرهبرداری از رذایل ما استفاده خواهد شد و نه برای تقویت فضائلمان؟
هراری از «دستورهای صریح از بالا» که الگوریتمها را هدایت میکنند گلایه دارد، اما هوش مصنوعی میتواند دستورهایی بسیار متفاوت از بالا دریافت کند که به جای تفرقه و خشم، خیرخواهی و همکاری را ترویج دهند. «نهادها بدون سازوکارهای خوداصلاحکننده از بین میروند» و به گفته هراری، انجام «کار سخت و نسبتاً کسلکننده» ایجاد این سازوکارها مهمترین پیام کتاب اوست. اما نه تنها نهادها، بلکه انسانها نیز به سازوکارهای خوداصلاحکننده نیاز دارند. با استفاده از هوش مصنوعی، به عنوان مربی شخصیسازیشدهای در زمان واقعی، میتوانیم سازوکارهای خوداصلاحکننده فردی را تقویت کرده و در موقعیت بهتری برای ایجاد این سازوکارها برای نهادها قرار بگیریم.
هراری در مثالی به داستان غار افلاطون اشاره میکند که در آن افراد در غاری به دام افتادهاند و تنها سایههایی روی دیوار میبینند که آنها را به عنوان واقعیت تصور میکنند. اما فناوریهای پیش از هوش مصنوعی ما را پیش از این در غار افلاطون گرفتار کردهاند. ما به صفحات نمایش معتاد شدهایم و درگیر تفرقههای شدید هستیم. آیا هوش مصنوعی میتواند همان فناوریای باشد که ما را از این غار خارج کند؟
هراری به درستی اشاره میکند که «فناوری به ندرت جبری است» و در نهایت هوش مصنوعی همان خواهد بود که ما از آن میسازیم. «هوش مصنوعی پتانسیل عظیمی برای ایجاد بهترین سیستمهای مراقبت بهداشتی در تاریخ دارد و میتواند به حل بحران اقلیمی کمک کند.» در عین حال، میتواند به ظهور رژیمهای توتالیتر و امپراتوریهای جدید نیز منجر شود.
بنابراین، بله، شرکتهایی خواهند بود که همچنان از الگوریتمها برای تفرقهافکنی و بهرهبرداری از غرایز پست انسانی استفاده خواهند کرد. اما ما همچنان میتوانیم مدلهای جایگزینی ایجاد کنیم که انسانیت ما را تقویت کند.
در پایان، همانطور که هراری اشاره میکند: «همانطور که کامپیوترها هنوز به پتانسیل کامل خود نرسیدهاند، انسانها نیز چنین هستند.»