آیا هوش مصنوعی به من دروغ می گوید؟ دانشمندان نسبت به افزایش ظرفیت هوش مصنوعی برای فریب هشدار می دهند

آنها می‌توانند در بازی‌های رومیزی از انسان‌ها گول بزنند، ساختار پروتئین‌ها را رمزگشایی کنند و مکالمه‌ای قابل قبول داشته باشند، اما دانشمندان هشدار می‌دهند که از آنجایی که سیستم‌های هوش مصنوعی پیشرفته‌تر شده‌اند، ظرفیت آنها برای فریب‌کاری نیز افزایش یافته است.

این تحلیل که توسط محققان موسسه فناوری ماساچوست (MIT) انجام شده است، نمونه‌های گسترده‌ای از سیستم‌های هوش مصنوعی را شناسایی می‌کند که دو برابر مخالفان، بلوف کردن و تظاهر به انسان هستند. حتی یک سیستم رفتار خود را در طول آزمایش‌های ایمنی ساختگی تغییر داد و این احتمال را افزایش داد که حسابرسان به یک احساس امنیت کاذب جذب شوند.

دکتر پیتر پارک، محقق ایمنی وجودی هوش مصنوعی در MIT و نویسنده این تحقیق، گفت: «با پیشرفت بیشتر قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند جدی‌تر می‌شوند.

پس از آن که متا، مالک فیس‌بوک، برنامه‌ای به نام سیسرو را توسعه داد که در بازی استراتژی فتح جهان دیپلماسی در بین 10 درصد از بازیکنان انسانی برتر بازی می‌کرد، پارک به تحقیق وادار شد. متا اظهار داشت که سیسرو به گونه ای آموزش دیده است که «تا حد زیادی صادق و مفید» باشد و «هرگز عمداً به متحدان انسانی خود خنجر نزند».

پارک گفت: «زبان بسیار بدی بود که مشکوک بود زیرا خنجر زدن از پشت یکی از مهمترین مفاهیم بازی است.

پارک و همکارانش داده‌های در دسترس عموم را غربال کردند و موارد متعددی را شناسایی کردند که سیسرو دروغ‌های از پیش برنامه‌ریزی‌شده گفته بود، تبانی کردند تا بازیکنان دیگر را به توطئه‌ها بکشانند و در یک موقعیت، عدم وجود آن را پس از راه‌اندازی مجدد با گفتن به بازیکن دیگری توجیه کردند: «من با من در تماس هستم. دوست دختر." پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد.

تیم MIT مشکلات قابل مقایسه با سایر سیستم‌ها، از جمله برنامه پوکر تگزاس هلد ام را پیدا کرد که می‌توانست علیه بازیکنان انسانی حرفه‌ای بلوف کند و سیستم دیگری برای مذاکرات اقتصادی که ترجیحات آن را به اشتباه نشان می‌داد تا دست برتر را به دست آورد.

در یک مطالعه، ارگانیسم‌های هوش مصنوعی در یک شبیه‌ساز دیجیتالی به منظور فریب آزمایشی که برای از بین بردن سیستم‌های هوش مصنوعی ساخته شده بود که به سرعت تکثیر شده بودند، قبل از از سرگیری فعالیت شدید پس از اتمام آزمایش، «مرده بازی کردند». این امر چالش فنی اطمینان از اینکه سیستم ها رفتارهای ناخواسته و پیش بینی نشده ندارند را برجسته می کند.

پارک گفت: «این خیلی نگران کننده است. «فقط به این دلیل که یک سیستم هوش مصنوعی در محیط آزمایش ایمن تلقی می شود، به این معنی نیست که در طبیعت ایمن است. این فقط می تواند تظاهر به ایمن بودن در آزمایش باشد."

این بررسی که در مجله Patterns منتشر شده است، از دولت‌ها می‌خواهد تا قوانین ایمنی هوش مصنوعی را طراحی کنند که احتمال فریب هوش مصنوعی را بررسی کند. خطرات ناشی از سیستم‌های هوش مصنوعی غیرصادقانه شامل تقلب، دستکاری در انتخابات و "کیسه شن" است که در آن به کاربران مختلف پاسخ‌های متفاوتی داده می‌شود. این مقاله نشان می‌دهد که در نهایت، اگر این سیستم‌ها بتوانند ظرفیت فریب‌دهنده خود را اصلاح کنند، انسان‌ها ممکن است کنترل آنها را از دست بدهند.

پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، گفت که این مطالعه "به موقع و خوش آمدید" بود و افزود که چالش مهمی در نحوه تعریف رفتارهای مطلوب و نامطلوب برای سیستم های هوش مصنوعی وجود دارد.

«ویژگی‌های مطلوب برای یک سیستم هوش مصنوعی («سه H») اغلب به‌عنوان صداقت، مفید بودن و بی‌ضرر بودن ذکر می‌شوند، اما همانطور که قبلاً در ادبیات اشاره شده است، این ویژگی‌ها می‌توانند در تضاد با یکدیگر باشند: قدرت صادق بودن. به احساسات دیگران آسیب برساند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشد، می‌تواند باعث آسیب شود.» بنابراین، فریب گاهی اوقات می تواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن اثرات بالقوه مضر آنها خواهد بود.

سخنگوی متا گفت: «کار Cicero ما صرفاً یک پروژه تحقیقاتی بود و مدل‌هایی که محققان ما ساخته‌اند صرفاً برای بازی دیپلماسی آموزش دیده‌اند... متا به طور منظم نتایج تحقیقات ما را به اشتراک می‌گذارد تا آنها را تأیید کند و دیگران را قادر می‌سازد که مسئولانه از ما بسازند. پیشرفت ها ما هیچ برنامه ای برای استفاده از این تحقیق یا آموخته های آن در محصولات خود نداریم.


منبع : The Guardian

🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.