تیم ریسک هوش مصنوعی OpenAI منحل شده است

انحلال تیم مدیریت ریسک هوش مصنوعی open ai
انحلال تیم مدیریت ریسک هوش مصنوعی open ai

در ژوئیه سال گذشته، OpenAI از تشکیل یک تیم تحقیقاتی جدید خبر داد که برای ظهور هوش مصنوعی فوق‌هوشمندی که قادر به غلبه بر سازندگان آن است، آماده می‌شود. Ilya Sutskever، دانشمند ارشد OpenAI و یکی از بنیانگذاران این شرکت، به عنوان سرپرست این تیم جدید معرفی شد. OpenAI گفت که این تیم 20 درصد از قدرت محاسباتی خود را دریافت خواهد کرد.

این شرکت تأیید می کند که اکنون دیگر «تیم فوق همسویی» OpenAI وجود ندارد. این پس از خروج چندین محقق درگیر، خبر روز سه‌شنبه مبنی بر ترک شرکت Sutskever و استعفای دیگر همکار تیم اتفاق افتاد. کار این گروه در دیگر تلاش های تحقیقاتی OpenAI جذب خواهد شد.

خروج Sutskever به تیتر خبرها تبدیل شد زیرا اگرچه او به سم آلتمن مدیر عامل شرکت OpenAI در سال 2015 کمک کرد و مسیر تحقیقاتی را که منجر به ChatGPT شد تعیین کرد، او همچنین یکی از چهار عضو هیئت مدیره بود که آلتمن را در نوامبر اخراج کردند. آلتمن پنج روز بعد پس از شورش گسترده کارکنان OpenAI و واسطه‌گری معامله‌ای که در آن Sutskever و دو مدیر دیگر شرکت هیئت مدیره را ترک کردند، به عنوان مدیرعامل بازگردانده شد.

ساعاتی پس از اعلام خروج Sutskever در روز سه‌شنبه، یان لیک، محقق سابق DeepMind که از دیگر همکاران تیم سوپرالاینمنت بود، در X پست کرد که او استعفا داده است.

نه Sutskever و نه Leike به درخواست ها برای اظهار نظر پاسخ ندادند. Sutskever توضیحی برای تصمیم خود برای ترک ارائه نکرد اما در پستی در X از مسیر فعلی OpenAI پشتیبانی کرد. «مسیر این شرکت چیزی جز معجزه نبوده است، و من مطمئن هستم که OpenAI AGI خواهد ساخت که هم ایمن و هم ایمن باشد. او نوشت.

لیک در روز جمعه یک موضوع در X پست کرد و توضیح داد که تصمیم او به دلیل اختلاف نظر در مورد اولویت‌های شرکت و میزان منابعی است که تیمش تخصیص داده شده است.

لیک نوشت: «من مدت زیادی است که با رهبری OpenAI درباره اولویت‌های اصلی شرکت مخالف بودم، تا اینکه سرانجام به نقطه شکست رسیدیم. طی چند ماه گذشته تیم من برخلاف باد حرکت کرده است. گاهی اوقات ما برای محاسبات دست و پنجه نرم می‌کردیم و انجام این تحقیق حیاتی سخت‌تر و سخت‌تر می‌شد.»

انحلال تیم سوپر همسویی OpenAI به شواهد اخیر مبنی بر تغییر در داخل شرکت در پی بحران حاکمیتی نوامبر گذشته می افزاید. The Information ماه گذشته گزارش داد، دو محقق این تیم، لئوپولد اشنبرنر و پاول ایزمایلوف، به دلیل افشای اسرار شرکت اخراج شدند. یکی دیگر از اعضای تیم، ویلیام ساندرز، طبق یک پست انجمن اینترنتی به نام او، OpenAI را در ماه فوریه ترک کرد.

به نظر می رسد دو محقق دیگر OpenAI که بر روی خط مشی و حاکمیت هوش مصنوعی کار می کنند نیز اخیراً شرکت را ترک کرده اند. به گفته لینکدین، کالن اوکیف در ماه آوریل نقش خود را به عنوان سرپرست تحقیقات در مورد مرزهای سیاست ترک کرد. دانیل کوکوتاجلو، محقق OpenAI که چندین مقاله در مورد خطرات مدل‌های هوش مصنوعی توانمندتر به نگارش درآورده است، طبق پستی که در یک فروم اینترنتی به نام او منتشر شده است، «به دلیل از دست دادن اعتماد به نفس نسبت به رفتار مسئولانه در زمان AGI، OpenAI را ترک کرد» هیچ یک از محققانی که ظاهرا ترک کرده اند به درخواست ها برای اظهار نظر پاسخ ندادند.

تیم superalignment تنها تیمی نبود که به این سوال فکر می کرد که چگونه هوش مصنوعی را تحت کنترل داشته باشد، اگرچه به طور عمومی به عنوان اصلی ترین تیمی بود که روی دورترین نسخه از آن مشکل کار می کرد. در پست وبلاگی که تابستان گذشته تیم سوپرالاینمنت را اعلام کرد، آمده بود: «در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوق‌هوشمند و جلوگیری از سرکشی آن نداریم.»

منشور OpenAI آن را به توسعه ایمن به اصطلاح هوش مصنوعی عمومی، یا فناوری که رقیب یا فراتر از انسان است، به صورت ایمن و به نفع بشریت ملزم می کند. Sutskever و دیگر رهبران آنجا اغلب در مورد نیاز به ادامه با احتیاط صحبت کرده اند. اما OpenAI همچنین برای توسعه و انتشار عمومی پروژه های آزمایشی هوش مصنوعی برای عموم زود بوده است.

OpenAI زمانی در میان آزمایشگاه‌های برجسته هوش مصنوعی غیرمعمول بود، زیرا با اشتیاق رهبران تحقیقاتی مانند Sutskever از ایجاد هوش مصنوعی مافوق بشری و پتانسیل چنین فناوری‌هایی برای تبدیل شدن به بشریت صحبت می‌کردند. این نوع صحبت‌های مهیب هوش مصنوعی در سال گذشته بسیار گسترده‌تر شد، پس از اینکه ChatGPT OpenAI را به برجسته‌ترین و از نزدیک‌ترین شرکت فناوری روی کره زمین تبدیل کرد. همانطور که محققان و سیاست گذاران با پیامدهای ChatGPT و چشم انداز هوش مصنوعی بسیار توانمندتر دست و پنجه نرم می کردند، نگرانی در مورد آسیب رساندن هوش مصنوعی به انسان یا کل بشریت کمتر بحث برانگیز شد.

نگرانی وجودی از آن زمان کاهش یافته است - و هوش مصنوعی هنوز نتوانسته جهش عظیم دیگری انجام دهد - اما نیاز به مقررات هوش مصنوعی همچنان یک موضوع داغ است. و این هفته OpenAI نسخه جدیدی از ChatGPT را به نمایش گذاشت که می تواند یک بار دیگر رابطه مردم با این فناوری را به روش های جدید قدرتمند و شاید مشکل ساز تغییر دهد.

خروج Sutskever و Leike اندکی پس از آخرین افشای بزرگ OpenAI رخ می دهد - یک مدل جدید هوش مصنوعی "چند وجهی" به نام GPT-4o که به ChatGPT اجازه می دهد جهان را ببیند و به روشی طبیعی تر و انسانی تر صحبت کند. یک نمایش زنده نشان داد که نسخه جدید ChatGPT از احساسات انسانی تقلید می کند و حتی سعی می کند با کاربران معاشقه کند. OpenAI گفته است که این رابط کاربری جدید را ظرف چند هفته در دسترس کاربران پولی قرار خواهد داد.

هیچ نشانه‌ای وجود ندارد که خروج‌های اخیر ارتباطی با تلاش‌های OpenAI برای توسعه هوش مصنوعی انسانی‌تر یا ارسال محصولات داشته باشد. اما آخرین پیشرفت‌ها سوالات اخلاقی را در مورد حریم خصوصی، دستکاری عاطفی و خطرات امنیت سایبری مطرح می‌کنند. OpenAI یک گروه تحقیقاتی دیگر به نام تیم آمادگی دارد که بر روی این موضوعات تمرکز دارد.

به روز رسانی 5/17/24 12:23 بعد از ظهر ET: این داستان به روز شده است تا شامل نظرات پست های Jan Leike در X باشد. محققانی که ظاهرا ترک کرده‌اند به درخواست‌ها برای اظهار نظر پاسخ دادند.



منبع : Wired

🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.