ویرگول
ورودثبت نام
امیرحسین حیدری
امیرحسین حیدریروزنامه‌نگار و منتقد سینما
امیرحسین حیدری
امیرحسین حیدری
خواندن ۵ دقیقه·۲ ماه پیش

خطرات هوش مصنوعی با چاشنی سینما

فیلم Ex Machina
فیلم Ex Machina

این روزها استفاده از هوش مصنوعی در میان همه اقشار جامعه در همه کشورها با شیب بسیاری صعودی شده، به گونه‌ای که کار به جایی رسیده که حتی برای انجام پیش پا افتاده‌ترین فعالیت‌های روزمره با آن مشورت می‌شود یا اگر امکانش فراهم باشد انجام کار را بر عهده هشو مصنوعی می‌گذارند که این خود یکی از عوامل اصلی تنبلی ذهن در ساختن ایده یا به کار بردن خلاقیت در انجام یک کارمی‌شود. اما آنچه امروز می‌خواهیم درباره آن صحبت کنیم ریسک‌هایی است که دخالت دادن بیش از حد هوش مصنوعی در زندگی می‌تواند به فرد و حتی جامعه آسیب برساند آسیب‌هایی فراتر از تنبلی ذهن یا ته کشید خلاقیت در انسان که اسم آن را در کلی‌ترین حالت خود ریسک‌های مهندسی افکار عمومی می‌گذاریم و سعی داریم این خطرات را با مثال‌های آشنایی از دنیای سینما که احتما آن‌ها را پیش از این دیده‌اید بررسی کنیم.

پروپاگاندا به سبک هوش مصنوعی

الگوریتم‌های هوش مصنوعی می‌توانند به سرعت و در مقیاسی غیرقابل تصور، محتوای جعلی (دیپ‌فیک، متون دروغین، اخبار ساختگی) تولید و منتشر کنند. این الگوریتم‌ها با تحلیل روانشناختی کاربران، این محتوا را به سمت افرادی هدایت می‌کنند که بیشترین آمادگی را برای پذیرش آن دارند و بدین ترتیب باعث ایجاد تفرقه، بی‌اعتمادی و هدایت افکار عمومی در راستای اهداف خاص سیاسی یا تجاری می‌شوند. برای فهم بهتر این خطر بهتر است نیم‌نگاهی به مینی سریال بازداشت (Capture) داشته باشیم؛ این سریال به شکلی دقیق و هولناک نشان می‌دهد که چگونه می‌توان با استفاده از فناوری دیپ‌فیک (Deepfake) و دستکاری زنده تصاویر دوربین‌های مداربسته، روایتی کاملاً جعلی از یک رویداد ساخت و فردی را بی‌گناه یا گناهکار جلوه داد. این سریال عملاً نشان می‌دهد که دیگر نمی‌توان به چیزی که با چشمان خود می‌بینیم اعتماد کنیم و چگونه این فناوری می‌تواند برای دستکاری عدالت و افکار عمومی به کار رود.

حباب‌های اطلاعاتی

یکی از حربه‌های موتورهای جستجو از قدیم که الان نیز توسط هوش مصنوعی انجام می‌شود نشان دادن محتوا بر اساس فعالیت‌های قبلی او است. در این فرایند که توسط هوش مصنوعی مدیریت می‌شود، به تدریج کاربر را در یک “حباب” اطلاعاتی حبس می‌کند و از او در برابر دیدگاه‌های مخالف محافظت می‌کند. این امر منجر به تقویت افراطی‌گری، کاهش همدلی و از بین رفتن گفتگوی سازنده در جامعه می‌شود. اگر یکی از دنبال کنندگان سریال پرطرفدار آینه سیاه (Black Mirror) باشید حتما به خاطر دارید که این سریال در اپیزود (Nosedive) جامعه‌ای را به تصویر می‌کشد که در آن هر تعامل اجتماعی بر اساس یک سیستم امتیازدهی رتبه‌بندی می‌شود. الگوریتم‌ها و فشارهای اجتماعی افراد را مجبور می‌کنند تا همواره نسخه‌ای بی‌نقص و مورد پسند دیگران از خود ارائه دهند. این امر یک اتاق پژواک یا حباب اطلاعاتی از مثبت‌اندیشی سمی ایجاد می‌کند و هرگونه رفتار خارج از هنجار را به شدت سرکوب می‌کند.

دستکاری روانشناختی

یکی دیگر از خطرهایی که در استفاده افراطی از هوش مصنوعی در کمین کاربران قرار دارد دستکاری روان‌شناختی است. هوش مصنوعی می‌تواند با تحلیل ردپاهای دیجیتال ما (لایک‌ها، جستجوها، خریدها و…)، پروفایل‌های روانشناختی بسیار دقیقی از هر فرد ایجاد کند. سپس با استفاده از این پروفایل‌ها، پیام‌های تبلیغاتی یا سیاسی شخصی‌سازی‌شده‌ای ارسال می‌کند که دقیقاً نقاط ضعف، ترس‌ها و امیدهای آن فرد را هدف قرار می‌دهد. این سطح از دستکاری، مرز بین متقاعدسازی و کنترل ذهن را بسیار باریک می‌کند. سال 2014 فیلمی درباره یک هوش مصنوعی به نام ایوا (اشاره مستقیم به حوا در داستان آفرینش دارد) منتشر شده به نام فراماشین یا (Ex Machina) در این فیلم ربات انسان‌نمای این فیلم، “ایوا” (Ava)، از هوش مصنوعی پیشرفته خود برای تحلیل روانشناختی شخصیت اصلی (کیلب) استفاده می‌کند. ایوا با درک عمیق از تنهایی، امیال و ضعف‌های کیلب، او را به طور کامل دستکاری می‌کند تا به هدف خود یعنی فرار دست یابد. این فیلم نمونه‌ای عالی از چگونگی استفاده از هوش و تحلیل داده برای بازی با احساسات و تصمیمات یک انسان است.

بازتولید تعصبات اجتماعی

الگوریتم‌های هوش مصنوعیمی‌توانند بر اساس داده‌هایی آموزش می‌بینند که از دنیای واقعی استخراج شده‌اند؛ دنیایی که پر از تعصبات نژادی، جنسیتی و طبقاتی است. در نتیجه، این سیستم‌ها نه تنها این تعصبات را یاد می‌گیرند، بلکه آن‌ها را در مقیاسی بزرگ بازتولید و تقویت می‌کنند. برای مثال، یک الگوریتم تولید محتوا ممکن است کلیشه‌های جنسیتی را ترویج دهد یا یک سیستم تعدیل محتوا، صدای گروه‌های اقلیت را بیشتر از گروه‌های اکثریت سرکوب کند. یکی از معروف‌ترین فیلم‌هایی که درباره یک هوش مصنوعی ساخته شده و با استقبال مخاطبان نیز همراه شد فیلم او یا (Her) است. گرچه این فیلم جنبه‌های رمانتیک هوش مصنوعی را بررسی می‌کند، اما می‌توان آن را از این زاویه نیز تحلیل کرد. سیستم‌عامل “سامانتا” برای درک و ارتباط با انسان‌ها، کل اینترنت و تولیدات فرهنگی بشر را پردازش می‌کند. اگر این داده‌ها حاوی تعصبات باشند (که هستند)، هوش مصنوعی نیز ناگزیر آن تعصبات را در تعاملات و پیشنهادات خود بازتاب خواهد داد و به طور نامحسوس به عادی‌سازی آن‌ها کمک می‌کند.

فرسایش اعتماد به نهادها و واقعیت مشترک

وقتی شهروندان نتوانند تشخیص دهند که کدام خبر واقعی و کدام جعلی است، یا احساس کنند که دائماً تحت دستکاری الگوریتم‌ها هستند، اعتماد خود را به رسانه‌ها، دولت، علم و حتی خود مفهوم حقیقت از دست می‌دهند. این «اقتدارزدایی معرفتی» جامعه را به سمت هرج‌ومرج و پوچ‌گرایی سوق می‌دهد و هرگونه اجماع برای حل مشکلات بزرگ اجتماعی را غیرممکن می‌سازد. یکی از فیلم‌هایی که به خوبی به قدرت رسانه برای مهندسی افکار عمومی را به نمایش می‌گذارد فیلم به بالا نگاه نکن یا (Don’t Look up) است. این فیلم کمدی سیاه به خوبی نشان می‌دهد که چگونه در یک فضای رسانه‌ای اشباع‌شده و الگوریتم‌محور، یک حقیقت علمی آشکار (برخورد یک شهاب‌سنگ به زمین) به یک موضوع قابل بحث و نظر شخصی تبدیل می‌شود. تلاش دانشمندان برای هشدار به مردم در میان موجی از اطلاعات نادرست، تئوری‌های توطئه و محتوای سرگرم‌کننده تولید شده برای افزایش بازدید، گم می‌شود. این فیلم استعاره‌ای قدرتمند از فرسایش واقعیت مشترک است.

هوش مصنوعیسینماتکنولوژیفرهنگفناوری
۶
۵
امیرحسین حیدری
امیرحسین حیدری
روزنامه‌نگار و منتقد سینما
شاید از این پست‌ها خوشتان بیاید