
این روزها استفاده از هوش مصنوعی در میان همه اقشار جامعه در همه کشورها با شیب بسیاری صعودی شده، به گونهای که کار به جایی رسیده که حتی برای انجام پیش پا افتادهترین فعالیتهای روزمره با آن مشورت میشود یا اگر امکانش فراهم باشد انجام کار را بر عهده هشو مصنوعی میگذارند که این خود یکی از عوامل اصلی تنبلی ذهن در ساختن ایده یا به کار بردن خلاقیت در انجام یک کارمیشود. اما آنچه امروز میخواهیم درباره آن صحبت کنیم ریسکهایی است که دخالت دادن بیش از حد هوش مصنوعی در زندگی میتواند به فرد و حتی جامعه آسیب برساند آسیبهایی فراتر از تنبلی ذهن یا ته کشید خلاقیت در انسان که اسم آن را در کلیترین حالت خود ریسکهای مهندسی افکار عمومی میگذاریم و سعی داریم این خطرات را با مثالهای آشنایی از دنیای سینما که احتما آنها را پیش از این دیدهاید بررسی کنیم.
پروپاگاندا به سبک هوش مصنوعی
الگوریتمهای هوش مصنوعی میتوانند به سرعت و در مقیاسی غیرقابل تصور، محتوای جعلی (دیپفیک، متون دروغین، اخبار ساختگی) تولید و منتشر کنند. این الگوریتمها با تحلیل روانشناختی کاربران، این محتوا را به سمت افرادی هدایت میکنند که بیشترین آمادگی را برای پذیرش آن دارند و بدین ترتیب باعث ایجاد تفرقه، بیاعتمادی و هدایت افکار عمومی در راستای اهداف خاص سیاسی یا تجاری میشوند. برای فهم بهتر این خطر بهتر است نیمنگاهی به مینی سریال بازداشت (Capture) داشته باشیم؛ این سریال به شکلی دقیق و هولناک نشان میدهد که چگونه میتوان با استفاده از فناوری دیپفیک (Deepfake) و دستکاری زنده تصاویر دوربینهای مداربسته، روایتی کاملاً جعلی از یک رویداد ساخت و فردی را بیگناه یا گناهکار جلوه داد. این سریال عملاً نشان میدهد که دیگر نمیتوان به چیزی که با چشمان خود میبینیم اعتماد کنیم و چگونه این فناوری میتواند برای دستکاری عدالت و افکار عمومی به کار رود.
حبابهای اطلاعاتی
یکی از حربههای موتورهای جستجو از قدیم که الان نیز توسط هوش مصنوعی انجام میشود نشان دادن محتوا بر اساس فعالیتهای قبلی او است. در این فرایند که توسط هوش مصنوعی مدیریت میشود، به تدریج کاربر را در یک “حباب” اطلاعاتی حبس میکند و از او در برابر دیدگاههای مخالف محافظت میکند. این امر منجر به تقویت افراطیگری، کاهش همدلی و از بین رفتن گفتگوی سازنده در جامعه میشود. اگر یکی از دنبال کنندگان سریال پرطرفدار آینه سیاه (Black Mirror) باشید حتما به خاطر دارید که این سریال در اپیزود (Nosedive) جامعهای را به تصویر میکشد که در آن هر تعامل اجتماعی بر اساس یک سیستم امتیازدهی رتبهبندی میشود. الگوریتمها و فشارهای اجتماعی افراد را مجبور میکنند تا همواره نسخهای بینقص و مورد پسند دیگران از خود ارائه دهند. این امر یک اتاق پژواک یا حباب اطلاعاتی از مثبتاندیشی سمی ایجاد میکند و هرگونه رفتار خارج از هنجار را به شدت سرکوب میکند.
دستکاری روانشناختی
یکی دیگر از خطرهایی که در استفاده افراطی از هوش مصنوعی در کمین کاربران قرار دارد دستکاری روانشناختی است. هوش مصنوعی میتواند با تحلیل ردپاهای دیجیتال ما (لایکها، جستجوها، خریدها و…)، پروفایلهای روانشناختی بسیار دقیقی از هر فرد ایجاد کند. سپس با استفاده از این پروفایلها، پیامهای تبلیغاتی یا سیاسی شخصیسازیشدهای ارسال میکند که دقیقاً نقاط ضعف، ترسها و امیدهای آن فرد را هدف قرار میدهد. این سطح از دستکاری، مرز بین متقاعدسازی و کنترل ذهن را بسیار باریک میکند. سال 2014 فیلمی درباره یک هوش مصنوعی به نام ایوا (اشاره مستقیم به حوا در داستان آفرینش دارد) منتشر شده به نام فراماشین یا (Ex Machina) در این فیلم ربات انساننمای این فیلم، “ایوا” (Ava)، از هوش مصنوعی پیشرفته خود برای تحلیل روانشناختی شخصیت اصلی (کیلب) استفاده میکند. ایوا با درک عمیق از تنهایی، امیال و ضعفهای کیلب، او را به طور کامل دستکاری میکند تا به هدف خود یعنی فرار دست یابد. این فیلم نمونهای عالی از چگونگی استفاده از هوش و تحلیل داده برای بازی با احساسات و تصمیمات یک انسان است.
بازتولید تعصبات اجتماعی
الگوریتمهای هوش مصنوعیمیتوانند بر اساس دادههایی آموزش میبینند که از دنیای واقعی استخراج شدهاند؛ دنیایی که پر از تعصبات نژادی، جنسیتی و طبقاتی است. در نتیجه، این سیستمها نه تنها این تعصبات را یاد میگیرند، بلکه آنها را در مقیاسی بزرگ بازتولید و تقویت میکنند. برای مثال، یک الگوریتم تولید محتوا ممکن است کلیشههای جنسیتی را ترویج دهد یا یک سیستم تعدیل محتوا، صدای گروههای اقلیت را بیشتر از گروههای اکثریت سرکوب کند. یکی از معروفترین فیلمهایی که درباره یک هوش مصنوعی ساخته شده و با استقبال مخاطبان نیز همراه شد فیلم او یا (Her) است. گرچه این فیلم جنبههای رمانتیک هوش مصنوعی را بررسی میکند، اما میتوان آن را از این زاویه نیز تحلیل کرد. سیستمعامل “سامانتا” برای درک و ارتباط با انسانها، کل اینترنت و تولیدات فرهنگی بشر را پردازش میکند. اگر این دادهها حاوی تعصبات باشند (که هستند)، هوش مصنوعی نیز ناگزیر آن تعصبات را در تعاملات و پیشنهادات خود بازتاب خواهد داد و به طور نامحسوس به عادیسازی آنها کمک میکند.
فرسایش اعتماد به نهادها و واقعیت مشترک
وقتی شهروندان نتوانند تشخیص دهند که کدام خبر واقعی و کدام جعلی است، یا احساس کنند که دائماً تحت دستکاری الگوریتمها هستند، اعتماد خود را به رسانهها، دولت، علم و حتی خود مفهوم حقیقت از دست میدهند. این «اقتدارزدایی معرفتی» جامعه را به سمت هرجومرج و پوچگرایی سوق میدهد و هرگونه اجماع برای حل مشکلات بزرگ اجتماعی را غیرممکن میسازد. یکی از فیلمهایی که به خوبی به قدرت رسانه برای مهندسی افکار عمومی را به نمایش میگذارد فیلم به بالا نگاه نکن یا (Don’t Look up) است. این فیلم کمدی سیاه به خوبی نشان میدهد که چگونه در یک فضای رسانهای اشباعشده و الگوریتممحور، یک حقیقت علمی آشکار (برخورد یک شهابسنگ به زمین) به یک موضوع قابل بحث و نظر شخصی تبدیل میشود. تلاش دانشمندان برای هشدار به مردم در میان موجی از اطلاعات نادرست، تئوریهای توطئه و محتوای سرگرمکننده تولید شده برای افزایش بازدید، گم میشود. این فیلم استعارهای قدرتمند از فرسایش واقعیت مشترک است.