فیس‌بوک به هوش مصنوعی آموزش می‌دهد مانند یک انسان دروغ بگوید

منتشر شده در: thenextweb به تاریخ ۲۰ آوریل ۲۰۲۰
لینک مطلب اصلی: Facebook’s teaching AI to lie like a human

محققان هوش مصنوعی فیس‌بوک اعلام کردند که بلندر، مجموعه‌ای از مدل‌های ربات سخنگوی متن‌باز مدرن است. انتظار می‌رود که این مدل‌های جدید نسبت به تکرارهای قبلی «انسانی‌تر» باشند و مکالمات قوی‌تری را ارایه دهند.

براساس نشانه‌های اولیه، به نظر می‌رسد که این محصول به خوبی ربات‌های رقیب، گوگل و مایکروسافت، یا بهتر از آن‌ها باشد. اما به هیچ وجه از فراز و نشیب‌ها حرف نمی‌زنیم. چون، در اصل، کاری که فیس‌بوک انجام داده‌است این است که به ربات‌های سخنگوی بلندر یاد داده می‌شود که نسبتا بهتر از دیگران دروغ بگویند.

ایده اصلی در اینجا این است که فیس‌بوک یک مجموعه داده بزرگ از اطلاعات را گرفته و هوش مصنوعی را نسبت به این مجموعه داده آموزش‌دیده می‌کند. ربات‌های سخنگوی بلندر دامنه باز هستند، به این معنی که آن‌ها نمی‌توانند فقط برای پاسخ به یک سری از سوالات خاص مانند آن‌هایی که در وب‌سایت‌ها می‌بینید آموزش داده شوند. در عوض، این روبات‌ها از نظر تئوری قادر به درگیر شدن در صحبت بر روی هر موضوعی هستند.

  • این اولین بار است که یک ربات سخنگو یاد می‌گیرد تا چند مهارت مکالمه را در جریان مکالمه طبیعی و ۱۴ دور با هم ترکیب کند-از جمله توانایی فرض کردن یک شخصیت، بحث در مورد تقریبا هر موضوعی و نشان دادن همدلی-.
  • دستورالعمل جدید ما نه تنها شامل مدل‌های عصبی مقیاس بزرگ، با بیش از ۹.۴ میلیارد پارامتر می‌شود-یا ۳.۶ x بیشتر از بزرگ‌ترین سیستم موجود-بلکه همچنین تکنیک‌های مهمی برای ترکیب مهارت‌ها و تولید دقیق داراست.

همانند GPT-۲، مولد متن خوب OpenAI، تعداد پارامترهای مورد استفاده توسط بلندر نقش بزرگی در چگونگی متقاعد کردن خروجی هوش مصنوعی ایفا می‌کند. در اعداد بالاتر، هوش مصنوعی به قدرت محاسباتی بیشتری نیاز دارد، اما نتایج کاملا بهتری تولید می‌کند.

با این حال، بهترین بودن به چیزی بیش از حجم نیاز دارد، و کار فیسبوک فراتر از افزایش ساده اندازه پارامترها تاثیرگذار است.

  • گفتگوی خوب به تعدادی مهارت نیاز دارد که یک فرد متخصص با روشی یکپارچه آن‌ها را با هم ترکیب می‌کند: ارائه نکات گفتگو جذاب و گوش دادن به شرکای خود، هم پرسیدن و هم پاسخ دادن به سوالات، و نشان دادن دانش، همدلی و شخصیت مناسب، بسته به موقعیت. ما نشان می‌دهیم که مدل‌های مقیاس بزرگ می‌توانند این مهارت‌ها را در زمان داده آموزشی مناسب و انتخاب استراتژی تولید یاد بگیرند.
  • نتیجه یک ربات سخنگوی پرحرف است که اغلب اوقات به نظر می‌رسد صحبت انسان گونه را به طور متقاعدکننده‌ای قطع می‌کند. از بعضی جهات می‌تواند آزمون تورینگ را پشت سر بگذارد. که ممکن است به خوبی نشان‌دهنده پیشرفته‌ترین هوش مصنوعی محاوره‌ای در این سیاره باشد. و این کمی بیشتر از حقه اتاق نشیمن است.

هوش مصنوعی فیس بوک یک کلمه از آنچه می‌گوید را درک نمی‌کند. این موضوع «گوش دادن» به هیچ‌کس نیست، نمی‌تواند زبان یا معنای کلمات را درک کند. تنها بین بیانیه‌هایی ارتباط برقرار می‌کند که توسعه‌دهندگان آن پاسخ‌های مناسبی دریافت خواهند کرد و توسعه‌دهندگان آن پاسخ نخواهند داد.

نمی‌تواند «دانش را نمایش دهد» چون در واقع پایه دانش ندارد. ارتباط‌هایی ایجاد می‌کند که به نظر منطقی می‌رسند. به طور مثال اگر شما به آن بگویید که آهنگ محبوب شما یعنی «اSmashing Pumpkins» است، می‌توانید ادعا کنید که آهنگ دیگری را بیشتر دوست دارید، اما هرگز در معرض تجربه واقعی موسیقی قرار نگرفته است. آن فقط زبان طبیعی را پردازش می‌کند. او نمی‌داند صدا، تصویر و یا ویدیو چیست.

هم چنین همدلی ندارد، نمی‌تواند احساسات شما را تجزیه کند و یا با احساسات خودش پاسخ دهد.  صرفا با اظهاراتی که برای درک پاسخ‌های مناسب آموزش داده شده‌است پاسخ می‌دهد. به طور مثال اگر بگویید که ناراحت هستید،حداقل تحت شرایط بهینه، «تبریک» نخواهد گفت.

اساسا، هوش مصنوعی فیس بوک در gaslighting (یک نوع سواستفاده احساسی است که باعث میشود مخاطب افکار، حوادث و احساسات خود را زیرسوال ببرد) و catfishing (جعل هویت در شبکه‌های اجتماعی) واقعا خوب عمل می‌کند. این در حال تبدیل شدن به یک دروغگو کامل است زیرا گزینه دیگری وجود ندارد. هوش مصنوعی احساس یا فکر نمی‌کند، پس نمی‌تواند تجربه کند. و بدون تجربه هیچ نوع انسانیتی وجود ندارد. بنابراین یک روبات باید دروغ بگوید تا به هر جایی در یک نمونه برسد که موفقیت براساس این باشد که چگونه توانایی‌های مکالمه انسان را داراست.

ممکن است زمانی فرا برسد که بشر یاد بگیرد از تصمیم خود برای دنبال کردن حیله‌های قابل باور به عنوان نماینده هوش مکالمه انسانی متاسف باشد. اما، همانطور که تقریبا همیشه در مورد تهدید وجودی هوش مصنوعی وجود دارد، بزرگ‌ترین خطر این نیست که روبات‌ها از قدرت‌های در حال رشد خود برای آسیب رساندن به ما استفاده کنند، بلکه این است که انسان‌های دیگر این کار را خواهند کرد.

ترجمه این مقاله با استفاده از ربات ترجمه آنلاین مقالات هوش مصنوعی انجام شده و بصورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه ممکن است دارای برخی اشکالات ترجمه باشد.