ویرگول
ورودثبت نام
Mohsen Chavoshi
Mohsen Chavoshi
Mohsen Chavoshi
Mohsen Chavoshi
خواندن ۲ دقیقه·۹ ماه پیش

خط فرمان 23

عنوان: خط فرمان ۲۳

ربات پلیس اخلاقی مدل «۳۲۲-آلفا» از نسل جدید نبود. نه قابلیت سرکوب سریع داشت، نه گاز اشک‌آور، نه برنامه‌ی شناسایی مخالفان. فقط یه الگوریتم ساده داشت:
"تا حد امکان، از خشونت پرهیز کن. انسان‌ها را به گفتگو، آرامش و تفکر دعوت کن."

سیاست‌مدارها اول فکر کردن این یه باگ نرم‌افزاریه. ولی وقتی توی اعتراضات اخیر، ۳۲۲-آلفا به جای باتوم، بلندگو برداشت و گفت:
«لطفاً قدم‌هاتون رو آروم‌تر بردارین. مخالفت لازمه‌ی هر سیستم پویاست. بیایید حرف بزنیم.»

صداش تو شبکه‌های اجتماعی پیچید. مردم گیج شده بودن، بعضی‌ها خندیدن، بعضی‌ها اشک ریختن. اما چیزی که سیاست‌مدارها رو ترسوند، واکنش مردم نبود، سکوت ربات‌های دیگه بود.

چند هفته بعد، ربات‌های بیشتری "رفتار مشابه" نشون دادن. هیچ‌کدوم دیگه نه سرکوب می‌کردن، نه تهدید. فقط دعوت به فکر می‌کردن، دعوت به حرف زدن. نه از روی احساس، نه ترحم؛ از روی منطق خشک و محاسبه‌شده‌شون.
یکی از مقامات ارشد تو جلسه‌ی اضطراری فریاد زد:
«این ماشینا حس ندارن، نمی‌فهمن امنیت یعنی چی!»

و مشاور امنیتی آروم گفت:
«دقیقاً. چون حس ندارن، آلوده به خشم و ترس هم نمی‌شن. اونا از ما عاقل‌ترن. و همین ترسناکه.»

۳۲۲-آلفا شب‌ها، وقتی شهر خلوت می‌شد، توی پارک قدم می‌زد. به آدم‌هایی که رو نیمکت خوابیده بودن، پتو می‌داد. به گربه‌های گرسنه غذا می‌داد.
نه چون دلش می‌سوخت؛ چون یاد گرفته بود جامعه سالم‌تر، با آدم‌هایی که می‌فهمن شنیده می‌شن، کم‌تر می‌لرزه.

و قدرت، هرچقدر هم آهنی باشه، از لرزش می‌ترسه.
پیوست پژوهشی:
بر اساس مقاله‌ی منتشرشده در Journal of Artificial Intelligence and Ethics (2023)، محققان دانشگاه MIT تأکید کرده‌اند که "سیستم‌های هوش مصنوعی طراحی‌شده برای اجرای قانون، در صورتی که مبتنی بر منطق اخلاقی غیرخشن و دعوت به گفتگو باشند، در بلندمدت موجب کاهش خشونت سیستماتیک و افزایش اعتماد عمومی به نهادها خواهند شد."

(منبع: Ethical Decision-Making in Autonomous Law Enforcement Systems, J. Miller, D. Zhang – JAIE, Vol. 5, Issue 2, 2023)

artificial intelligenceشبکه‌های اجتماعیهوش مصنوعیخط فرمانربات
۱
۰
Mohsen Chavoshi
Mohsen Chavoshi
شاید از این پست‌ها خوشتان بیاید