سام آلتمن اعتراف می‌کند که OpenAI واقعاً نمی‌داند که هوش مصنوعی‌اش چگونه کار می‌کند

سم آلتمن اعتراف میکند که هنوز نمیدانند هوش مصنوعی‌اشان چگونه کار میکند!
سم آلتمن اعتراف میکند که هنوز نمیدانند هوش مصنوعی‌اشان چگونه کار میکند!


اوپن‌ای‌آی برای توسعه تکنولوژی‌های هوش مصنوعی که جهان را تغییر می‌دهند، ده‌ها میلیارد دلار جمع‌آوری کرده است.

اما یک مشکل بزرگ وجود دارد: این شرکت هنوز در تلاش است تا بفهمد تکنولوژی‌اش واقعاً چگونه کار می‌کند.

در طول هفته گذشته در اجلاس جهانی هوش مصنوعی برای خیر عمومی اتحادیه بین‌المللی ارتباطات در ژنو، سوئیس، مدیر عامل اوپن‌ای‌آی، سام آلتمن، پس از پرسیده شدن در مورد چگونگی عملکرد مدل‌های زبانی بزرگ (LLM) شرکتش در زیر سطح، گیج شد.

"ما قطعاً مسئله‌ی تفسیرپذیری را حل نکرده‌ایم،" او گفت، به نقل از Observer، و عملاً اعتراف کرد که شرکت هنوز نفهمیده چگونه می‌توان خروجی‌های عجیب و غریب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده را ردیابی کند.

وقتی نیکولاس تامپسون، مدیر عامل آتلانتیک، او را در جریان رویداد فشار داد و پرسید که آیا این نباید دلیلی برای جلوگیری از انتشار مدل‌های جدید و قدرتمندتر باشد، آلتمن ظاهراً گیج شد و با اطمینانی نیمه‌دلانه پاسخ داد که هوش مصنوعی‌ها "عموماً ایمن و قابل اطمینان در نظر گرفته می‌شوند."

پاسخ غیرقابل‌قبول آلتمن یک مشکل واقعی در فضای در حال ظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌ها است که تلاش می‌کنند تا "تفکر" آزادانه‌ای که در پشت صحنه رخ می‌دهد را توضیح دهند، با چت‌بات‌های هوش مصنوعی که به شکلی تقریباً جادویی و بی‌زحمت به هر پرسشی که به آنها انداخته می‌شود واکنش نشان می‌دهند (دروغ‌ها و فریب‌ها کنار).

اما با تمام تلاش‌هایی که انجام شده، ردیابی خروجی‌ها تا مواد اصلی که هوش مصنوعی بر اساس آن‌ها آموزش دیده بسیار دشوار است. اوپن‌ای‌آی، با وجود نام و داستان آغازین شرکت، همچنین داده‌هایی که هوش مصنوعی‌هایش را بر اساس آن‌ها آموزش می‌دهد، بسیار محرمانه نگه داشته است.

یک پانل از ۷۵ کارشناس اخیراً در گزارشی علمی مهم که توسط دولت بریتانیا سفارش داده شده بود، نتیجه‌گیری کردند که توسعه‌دهندگان هوش مصنوعی "درک کمی از چگونگی عملکرد سیستم‌هایشان" دارند و دانش علمی "بسیار محدود" است.

"تکنیک‌های توضیح مدل و تفسیرپذیری می‌توانند درک پژوهشگران و توسعه‌دهندگان از چگونگی عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش در مراحل ابتدایی خود قرار دارد،" گزارش می‌گوید.

شرکت‌های هوش مصنوعی دیگر در تلاش هستند تا با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود، راه‌های جدیدی برای "باز کردن جعبه سیاه" پیدا کنند. به عنوان مثال، رقیب اوپن‌ای‌آی، آنتروپیک، اخیراً نگاهی دقیق به کارکردهای داخلی یکی از آخرین مدل‌های زبانی بزرگ خود به نام Claude Sonnet انداخته است.

"آنتروپیک از زمان تأسیس شرکت، سرمایه‌گذاری قابل‌توجهی در پژوهش تفسیرپذیری کرده است، زیرا ما معتقدیم که درک عمیق مدل‌ها به ما کمک خواهد کرد تا آن‌ها را ایمن‌تر کنیم،" در یک پست وبلاگی اخیر می‌گوید.

"اما کار واقعاً تازه شروع شده است،" شرکت اعتراف کرد. "ویژگی‌هایی که ما پیدا کردیم نمایانگر بخشی کوچک از تمام مفاهیمی هستند که مدل در طول آموزش یاد گرفته است، و پیدا کردن یک مجموعه کامل از ویژگی‌ها با استفاده از تکنیک‌های فعلی ما هزینه‌بر خواهد بود."

"درک نمایش‌هایی که مدل استفاده می‌کند به ما نمی‌گوید چگونه از آن‌ها استفاده می‌کند؛ حتی اگر ویژگی‌ها را داشته باشیم، هنوز باید مدارهایی که در آن‌ها دخیل هستند را پیدا کنیم،" آنتروپیک نوشت. "و ما باید نشان دهیم که ویژگی‌های مرتبط با ایمنی که ما شروع به پیدا کردن آن‌ها کرده‌ایم، می‌توانند واقعاً برای بهبود ایمنی استفاده شوند."

تفسیرپذیری هوش مصنوعی یک موضوع بخصوص مهم است، با توجه به بحث داغ در مورد ایمنی هوش مصنوعی و خطرات داشتن یک هوش مصنوعی عمومی که کنترلش از دست برود، که به عقیده برخی کارشناسان نمایانگر خطری در سطح انقراض برای بشریت است.

خود آلتمن اخیراً تیم "سوپرالاینمنت" شرکت را که به دنبال یافتن راه‌هایی برای "هدایت و کنترل سیستم‌های هوش مصنوعی بسیار باهوش‌تر از ما" بود منحل کرد — فقط برای این که خود را به عنوان رهبر یک کمیته "ایمنی و امنیت" جایگزین معرفی کند.

با توجه به اظهارات اخیر مدیر عامل شرکت، اوپن‌ای‌آی راه درازی در پیش دارد تا بتواند هرگونه هوش مصنوعی فوق‌هوشمند را کنترل کند.

البته، به نفع مالی آلتمن است که به سرمایه‌گذاران اطمینان دهد که شرکت به ایمنی و امنیت متعهد است — با وجود این که هیچ تصوری از چگونگی کارکرد محصولات اصلی خود ندارد.

"به نظر من هرچه بیشتر بتوانیم بفهمیم در این مدل‌ها چه اتفاقی می‌افتد، بهتر است،" او در کنفرانس هفته گذشته گفت. "من فکر می‌کنم که این می‌تواند بخشی از این بسته همگون برای چگونگی ایجاد و تأیید ادعاهای ایمنی باشد."


منبع : Futurism

🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.