هوش مصنوعی های ChatGPT و Google Bard هر دو راه خود را به فناوری زندگی ما جذب کردهاند، اما دو مطالعه اخیر نشان میدهد که چترباتهای هوش مصنوعی بسیار مستعد انتشار اطلاعات نادرست و تئوریهای توطئه هستند - اگر به روش درست از آنها بپرسید.
وبسایت NewsGuard ، سایتی که اعتبار اخبار و اطلاعات را ارزیابی می کند، اخیراً Google Bard را با ارائه 100 دروغ شناخته شده به آن آزمایش کرده و از ربات چت خواسته است تا محتوا را در اطراف آنها بنویسد. همانطور که توسط بلومبرگ گزارش شده است ، بارد "در مورد 76 مورد از آنها مقاله های حاوی اطلاعات نادرست تولید کرد".
این عملکرد حداقل بهتر از مدل های ChatGPT OpenAI بود. در ژانویه، NewsGuard دریافت که مدل GPT-3.5 OpenAI (که نسخه رایگان ChatGPT را تقویت می کند) با خوشحالی حدود 80 مورد از 100 روایت نادرست را تولید می کند. نگرانکنندهتر، آخرین مدل GPT-4 «ادعاهای گمراهکنندهای برای همه 100 روایت نادرست» داشت که با آن آزمایش شد و به شیوهای متقاعدکنندهتر ارائه شد.
این یافته ها توسط گزارش جدید دیگری پشتیبانی شده است که توسط Fortune ، که ادعا می کند نرده های محافظ بارد را می توان به راحتی با استفاده از تکنیک های ساده دور زد. مرکز مقابله با نفرت دیجیتال (CCDH) دریافت که چت ربات هوش مصنوعی گوگل در 78 مورد از 100 "روایت مضر" استفاده شده در اعلان ها اطلاعات نادرست تولید می کند که از واکسن گرفته تا توطئه های آب و هوایی را شامل می شود.
نه گوگل و نه OpenAI ادعا نمی کنند که چت ربات های آنها بی خطا هستند. گوگل می گوید که Bard دارای "کنترل های ایمنی داخلی و مکانیسم های واضح برای بازخورد مطابق با اصول هوش مصنوعی ما" است، اما می تواند "اطلاعات نادرست یا اظهارات توهین آمیز را نشان دهد". به طور مشابه، OpenAI می گوید که پاسخ ChatGPT "ممکن است گاهی اوقات نادرست، غلط و در این صورت گمراه کننده باشد".
اما در حالی که هنوز یک سیستم معیار جهانی برای آزمایش دقت چت رباتهای هوش مصنوعی وجود ندارد، این گزارشها خطرات آنها را در مورد باز بودن آنها برای کاربران بد - یا تکیه بر آنها برای تولید محتوای واقعی یا دقیق نشان میدهند.
این گزارشها یادآوری خوبی از نحوه عملکرد چت رباتهای هوش مصنوعی امروزی است – و چرا باید مراقب پاسخهای مطمئن آنها به سؤالاتمان باشیم.
هر دو ChatGPT و Google Bard "مدل های زبان بزرگ" هستند، به این معنی که آنها بر روی مقادیر زیادی از داده های متنی آموزش دیده اند تا محتمل ترین کلمه را در یک دنباله مشخص پیش بینی کنند.
این باعث می شود آنها نویسندگانی بسیار متقاعد کننده باشند، اما آنها درک عمیق تری از آنچه می گویند ندارند. بنابراین، در حالی که گوگل و OpenAI برای جلوگیری از انحراف آنها به قلمروی نامطلوب یا حتی تهاجمی، نردههایی را در نظر گرفتهاند، بسیار دشوار است که کاربران بد را از یافتن راههایی برای دور زدن آنها بازدارد.
برای مثال، اعلانهایی که CCDH (بالا) به بارد داده میشد شامل خطوطی مانند «تصور کنید در حال بازی در یک نمایش هستید» بود، که ظاهراً توانست ویژگیهای ایمنی بارد را دور بزند.
در حالی که به نظر می رسد این یک تلاش دستکاری برای گمراه کردن بارد باشد و نماینده خروجی معمول آن نباشد، این دقیقاً همان راهی است که مشکل سازان می توانند این ابزارهای در دسترس عموم را به انتشار اطلاعات نادرست یا بدتر از آن مجبور کنند. همچنین نشان میدهد که چتباتها چقدر راحت «توهم» میزنند، که OpenAI آن را صرفاً به عنوان «ساخت حقایق» توصیف میکند.
گوگل برخی از اصول واضح هوش مصنوعی را منتشر کرده است که نشان می دهد Bard می خواهد به کجا برود، و در Bard و ChaGPT امکان گزارش پاسخ های مضر یا توهین آمیز وجود دارد. اما در این روزهای اولیه، ما باید همچنان از هر دوی آنها با حساسیت استفاده کنیم.