خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
آیا هوش مصنوعی به من دروغ می گوید؟ دانشمندان نسبت به افزایش ظرفیت هوش مصنوعی برای فریب هشدار می دهند
آنها میتوانند در بازیهای رومیزی از انسانها گول بزنند، ساختار پروتئینها را رمزگشایی کنند و مکالمهای قابل قبول داشته باشند، اما دانشمندان هشدار میدهند که از آنجایی که سیستمهای هوش مصنوعی پیشرفتهتر شدهاند، ظرفیت آنها برای فریبکاری نیز افزایش یافته است.
این تحلیل که توسط محققان موسسه فناوری ماساچوست (MIT) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که دو برابر مخالفان، بلوف کردن و تظاهر به انسان هستند. حتی یک سیستم رفتار خود را در طول آزمایشهای ایمنی ساختگی تغییر داد و این احتمال را افزایش داد که حسابرسان به یک احساس امنیت کاذب جذب شوند.
دکتر پیتر پارک، محقق ایمنی وجودی هوش مصنوعی در MIT و نویسنده این تحقیق، گفت: «با پیشرفت بیشتر قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشوند.
پس از آن که متا، مالک فیسبوک، برنامهای به نام سیسرو را توسعه داد که در بازی استراتژی فتح جهان دیپلماسی در بین 10 درصد از بازیکنان انسانی برتر بازی میکرد، پارک به تحقیق وادار شد. متا اظهار داشت که سیسرو به گونه ای آموزش دیده است که «تا حد زیادی صادق و مفید» باشد و «هرگز عمداً به متحدان انسانی خود خنجر نزند».
پارک گفت: «زبان بسیار بدی بود که مشکوک بود زیرا خنجر زدن از پشت یکی از مهمترین مفاهیم بازی است.
پارک و همکارانش دادههای در دسترس عموم را غربال کردند و موارد متعددی را شناسایی کردند که سیسرو دروغهای از پیش برنامهریزیشده گفته بود، تبانی کردند تا بازیکنان دیگر را به توطئهها بکشانند و در یک موقعیت، عدم وجود آن را پس از راهاندازی مجدد با گفتن به بازیکن دیگری توجیه کردند: «من با من در تماس هستم. دوست دختر." پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد.
تیم MIT مشکلات قابل مقایسه با سایر سیستمها، از جمله برنامه پوکر تگزاس هلد ام را پیدا کرد که میتوانست علیه بازیکنان انسانی حرفهای بلوف کند و سیستم دیگری برای مذاکرات اقتصادی که ترجیحات آن را به اشتباه نشان میداد تا دست برتر را به دست آورد.
در یک مطالعه، ارگانیسمهای هوش مصنوعی در یک شبیهساز دیجیتالی به منظور فریب آزمایشی که برای از بین بردن سیستمهای هوش مصنوعی ساخته شده بود که به سرعت تکثیر شده بودند، قبل از از سرگیری فعالیت شدید پس از اتمام آزمایش، «مرده بازی کردند». این امر چالش فنی اطمینان از اینکه سیستم ها رفتارهای ناخواسته و پیش بینی نشده ندارند را برجسته می کند.
پارک گفت: «این خیلی نگران کننده است. «فقط به این دلیل که یک سیستم هوش مصنوعی در محیط آزمایش ایمن تلقی می شود، به این معنی نیست که در طبیعت ایمن است. این فقط می تواند تظاهر به ایمن بودن در آزمایش باشد."
این بررسی که در مجله Patterns منتشر شده است، از دولتها میخواهد تا قوانین ایمنی هوش مصنوعی را طراحی کنند که احتمال فریب هوش مصنوعی را بررسی کند. خطرات ناشی از سیستمهای هوش مصنوعی غیرصادقانه شامل تقلب، دستکاری در انتخابات و "کیسه شن" است که در آن به کاربران مختلف پاسخهای متفاوتی داده میشود. این مقاله نشان میدهد که در نهایت، اگر این سیستمها بتوانند ظرفیت فریبدهنده خود را اصلاح کنند، انسانها ممکن است کنترل آنها را از دست بدهند.
پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، گفت که این مطالعه "به موقع و خوش آمدید" بود و افزود که چالش مهمی در نحوه تعریف رفتارهای مطلوب و نامطلوب برای سیستم های هوش مصنوعی وجود دارد.
«ویژگیهای مطلوب برای یک سیستم هوش مصنوعی («سه H») اغلب بهعنوان صداقت، مفید بودن و بیضرر بودن ذکر میشوند، اما همانطور که قبلاً در ادبیات اشاره شده است، این ویژگیها میتوانند در تضاد با یکدیگر باشند: قدرت صادق بودن. به احساسات دیگران آسیب برساند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشد، میتواند باعث آسیب شود.» بنابراین، فریب گاهی اوقات می تواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن اثرات بالقوه مضر آنها خواهد بود.
سخنگوی متا گفت: «کار Cicero ما صرفاً یک پروژه تحقیقاتی بود و مدلهایی که محققان ما ساختهاند صرفاً برای بازی دیپلماسی آموزش دیدهاند... متا به طور منظم نتایج تحقیقات ما را به اشتراک میگذارد تا آنها را تأیید کند و دیگران را قادر میسازد که مسئولانه از ما بسازند. پیشرفت ها ما هیچ برنامه ای برای استفاده از این تحقیق یا آموخته های آن در محصولات خود نداریم.
منبع : The Guardian
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
99.9٪ احتمال دارد هوش مصنوعی ما را نابود کند
مطلبی دیگر از این انتشارات
افشاگری کارکنان: نگرانیها درباره ایمنی و شفافیت در OpenAI به اوج خود میرسد
مطلبی دیگر از این انتشارات
Arc Search با Call Arc تماس صوتی را به یک تجربه سرگرمکننده تبدیل میک