خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
سام آلتمن اعتراف میکند که OpenAI واقعاً نمیداند که هوش مصنوعیاش چگونه کار میکند
اوپنایآی برای توسعه تکنولوژیهای هوش مصنوعی که جهان را تغییر میدهند، دهها میلیارد دلار جمعآوری کرده است.
اما یک مشکل بزرگ وجود دارد: این شرکت هنوز در تلاش است تا بفهمد تکنولوژیاش واقعاً چگونه کار میکند.
در طول هفته گذشته در اجلاس جهانی هوش مصنوعی برای خیر عمومی اتحادیه بینالمللی ارتباطات در ژنو، سوئیس، مدیر عامل اوپنایآی، سام آلتمن، پس از پرسیده شدن در مورد چگونگی عملکرد مدلهای زبانی بزرگ (LLM) شرکتش در زیر سطح، گیج شد.
"ما قطعاً مسئلهی تفسیرپذیری را حل نکردهایم،" او گفت، به نقل از Observer، و عملاً اعتراف کرد که شرکت هنوز نفهمیده چگونه میتوان خروجیهای عجیب و غریب و نادرست مدلهای هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخها گرفته شده را ردیابی کند.
وقتی نیکولاس تامپسون، مدیر عامل آتلانتیک، او را در جریان رویداد فشار داد و پرسید که آیا این نباید دلیلی برای جلوگیری از انتشار مدلهای جدید و قدرتمندتر باشد، آلتمن ظاهراً گیج شد و با اطمینانی نیمهدلانه پاسخ داد که هوش مصنوعیها "عموماً ایمن و قابل اطمینان در نظر گرفته میشوند."
پاسخ غیرقابلقبول آلتمن یک مشکل واقعی در فضای در حال ظهور هوش مصنوعی را برجسته میکند. پژوهشگران مدتها است که تلاش میکنند تا "تفکر" آزادانهای که در پشت صحنه رخ میدهد را توضیح دهند، با چتباتهای هوش مصنوعی که به شکلی تقریباً جادویی و بیزحمت به هر پرسشی که به آنها انداخته میشود واکنش نشان میدهند (دروغها و فریبها کنار).
اما با تمام تلاشهایی که انجام شده، ردیابی خروجیها تا مواد اصلی که هوش مصنوعی بر اساس آنها آموزش دیده بسیار دشوار است. اوپنایآی، با وجود نام و داستان آغازین شرکت، همچنین دادههایی که هوش مصنوعیهایش را بر اساس آنها آموزش میدهد، بسیار محرمانه نگه داشته است.
یک پانل از ۷۵ کارشناس اخیراً در گزارشی علمی مهم که توسط دولت بریتانیا سفارش داده شده بود، نتیجهگیری کردند که توسعهدهندگان هوش مصنوعی "درک کمی از چگونگی عملکرد سیستمهایشان" دارند و دانش علمی "بسیار محدود" است.
"تکنیکهای توضیح مدل و تفسیرپذیری میتوانند درک پژوهشگران و توسعهدهندگان از چگونگی عملکرد سیستمهای هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش در مراحل ابتدایی خود قرار دارد،" گزارش میگوید.
شرکتهای هوش مصنوعی دیگر در تلاش هستند تا با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود، راههای جدیدی برای "باز کردن جعبه سیاه" پیدا کنند. به عنوان مثال، رقیب اوپنایآی، آنتروپیک، اخیراً نگاهی دقیق به کارکردهای داخلی یکی از آخرین مدلهای زبانی بزرگ خود به نام Claude Sonnet انداخته است.
"آنتروپیک از زمان تأسیس شرکت، سرمایهگذاری قابلتوجهی در پژوهش تفسیرپذیری کرده است، زیرا ما معتقدیم که درک عمیق مدلها به ما کمک خواهد کرد تا آنها را ایمنتر کنیم،" در یک پست وبلاگی اخیر میگوید.
"اما کار واقعاً تازه شروع شده است،" شرکت اعتراف کرد. "ویژگیهایی که ما پیدا کردیم نمایانگر بخشی کوچک از تمام مفاهیمی هستند که مدل در طول آموزش یاد گرفته است، و پیدا کردن یک مجموعه کامل از ویژگیها با استفاده از تکنیکهای فعلی ما هزینهبر خواهد بود."
"درک نمایشهایی که مدل استفاده میکند به ما نمیگوید چگونه از آنها استفاده میکند؛ حتی اگر ویژگیها را داشته باشیم، هنوز باید مدارهایی که در آنها دخیل هستند را پیدا کنیم،" آنتروپیک نوشت. "و ما باید نشان دهیم که ویژگیهای مرتبط با ایمنی که ما شروع به پیدا کردن آنها کردهایم، میتوانند واقعاً برای بهبود ایمنی استفاده شوند."
تفسیرپذیری هوش مصنوعی یک موضوع بخصوص مهم است، با توجه به بحث داغ در مورد ایمنی هوش مصنوعی و خطرات داشتن یک هوش مصنوعی عمومی که کنترلش از دست برود، که به عقیده برخی کارشناسان نمایانگر خطری در سطح انقراض برای بشریت است.
خود آلتمن اخیراً تیم "سوپرالاینمنت" شرکت را که به دنبال یافتن راههایی برای "هدایت و کنترل سیستمهای هوش مصنوعی بسیار باهوشتر از ما" بود منحل کرد — فقط برای این که خود را به عنوان رهبر یک کمیته "ایمنی و امنیت" جایگزین معرفی کند.
با توجه به اظهارات اخیر مدیر عامل شرکت، اوپنایآی راه درازی در پیش دارد تا بتواند هرگونه هوش مصنوعی فوقهوشمند را کنترل کند.
البته، به نفع مالی آلتمن است که به سرمایهگذاران اطمینان دهد که شرکت به ایمنی و امنیت متعهد است — با وجود این که هیچ تصوری از چگونگی کارکرد محصولات اصلی خود ندارد.
"به نظر من هرچه بیشتر بتوانیم بفهمیم در این مدلها چه اتفاقی میافتد، بهتر است،" او در کنفرانس هفته گذشته گفت. "من فکر میکنم که این میتواند بخشی از این بسته همگون برای چگونگی ایجاد و تأیید ادعاهای ایمنی باشد."
منبع : Futurism
🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
مدل GPT-4o در راه است - 5 ویژگی جدید برتر که باید بدانید
مطلبی دیگر از این انتشارات
سنا «حداقل» سالانه 32 میلیارد دلار برای برنامههای هوش مصنوعی پیشنهاد میکند
مطلبی دیگر از این انتشارات
OpenAI نگاهی به داخل ساختار ChatGPT ارائه میدهد