خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
تیم ریسک هوش مصنوعی OpenAI منحل شده است
در ژوئیه سال گذشته، OpenAI از تشکیل یک تیم تحقیقاتی جدید خبر داد که برای ظهور هوش مصنوعی فوقهوشمندی که قادر به غلبه بر سازندگان آن است، آماده میشود. Ilya Sutskever، دانشمند ارشد OpenAI و یکی از بنیانگذاران این شرکت، به عنوان سرپرست این تیم جدید معرفی شد. OpenAI گفت که این تیم 20 درصد از قدرت محاسباتی خود را دریافت خواهد کرد.
این شرکت تأیید می کند که اکنون دیگر «تیم فوق همسویی» OpenAI وجود ندارد. این پس از خروج چندین محقق درگیر، خبر روز سهشنبه مبنی بر ترک شرکت Sutskever و استعفای دیگر همکار تیم اتفاق افتاد. کار این گروه در دیگر تلاش های تحقیقاتی OpenAI جذب خواهد شد.
خروج Sutskever به تیتر خبرها تبدیل شد زیرا اگرچه او به سم آلتمن مدیر عامل شرکت OpenAI در سال 2015 کمک کرد و مسیر تحقیقاتی را که منجر به ChatGPT شد تعیین کرد، او همچنین یکی از چهار عضو هیئت مدیره بود که آلتمن را در نوامبر اخراج کردند. آلتمن پنج روز بعد پس از شورش گسترده کارکنان OpenAI و واسطهگری معاملهای که در آن Sutskever و دو مدیر دیگر شرکت هیئت مدیره را ترک کردند، به عنوان مدیرعامل بازگردانده شد.
ساعاتی پس از اعلام خروج Sutskever در روز سهشنبه، یان لیک، محقق سابق DeepMind که از دیگر همکاران تیم سوپرالاینمنت بود، در X پست کرد که او استعفا داده است.
نه Sutskever و نه Leike به درخواست ها برای اظهار نظر پاسخ ندادند. Sutskever توضیحی برای تصمیم خود برای ترک ارائه نکرد اما در پستی در X از مسیر فعلی OpenAI پشتیبانی کرد. «مسیر این شرکت چیزی جز معجزه نبوده است، و من مطمئن هستم که OpenAI AGI خواهد ساخت که هم ایمن و هم ایمن باشد. او نوشت.
لیک در روز جمعه یک موضوع در X پست کرد و توضیح داد که تصمیم او به دلیل اختلاف نظر در مورد اولویتهای شرکت و میزان منابعی است که تیمش تخصیص داده شده است.
لیک نوشت: «من مدت زیادی است که با رهبری OpenAI درباره اولویتهای اصلی شرکت مخالف بودم، تا اینکه سرانجام به نقطه شکست رسیدیم. طی چند ماه گذشته تیم من برخلاف باد حرکت کرده است. گاهی اوقات ما برای محاسبات دست و پنجه نرم میکردیم و انجام این تحقیق حیاتی سختتر و سختتر میشد.»
انحلال تیم سوپر همسویی OpenAI به شواهد اخیر مبنی بر تغییر در داخل شرکت در پی بحران حاکمیتی نوامبر گذشته می افزاید. The Information ماه گذشته گزارش داد، دو محقق این تیم، لئوپولد اشنبرنر و پاول ایزمایلوف، به دلیل افشای اسرار شرکت اخراج شدند. یکی دیگر از اعضای تیم، ویلیام ساندرز، طبق یک پست انجمن اینترنتی به نام او، OpenAI را در ماه فوریه ترک کرد.
به نظر می رسد دو محقق دیگر OpenAI که بر روی خط مشی و حاکمیت هوش مصنوعی کار می کنند نیز اخیراً شرکت را ترک کرده اند. به گفته لینکدین، کالن اوکیف در ماه آوریل نقش خود را به عنوان سرپرست تحقیقات در مورد مرزهای سیاست ترک کرد. دانیل کوکوتاجلو، محقق OpenAI که چندین مقاله در مورد خطرات مدلهای هوش مصنوعی توانمندتر به نگارش درآورده است، طبق پستی که در یک فروم اینترنتی به نام او منتشر شده است، «به دلیل از دست دادن اعتماد به نفس نسبت به رفتار مسئولانه در زمان AGI، OpenAI را ترک کرد» هیچ یک از محققانی که ظاهرا ترک کرده اند به درخواست ها برای اظهار نظر پاسخ ندادند.
تیم superalignment تنها تیمی نبود که به این سوال فکر می کرد که چگونه هوش مصنوعی را تحت کنترل داشته باشد، اگرچه به طور عمومی به عنوان اصلی ترین تیمی بود که روی دورترین نسخه از آن مشکل کار می کرد. در پست وبلاگی که تابستان گذشته تیم سوپرالاینمنت را اعلام کرد، آمده بود: «در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوقهوشمند و جلوگیری از سرکشی آن نداریم.»
منشور OpenAI آن را به توسعه ایمن به اصطلاح هوش مصنوعی عمومی، یا فناوری که رقیب یا فراتر از انسان است، به صورت ایمن و به نفع بشریت ملزم می کند. Sutskever و دیگر رهبران آنجا اغلب در مورد نیاز به ادامه با احتیاط صحبت کرده اند. اما OpenAI همچنین برای توسعه و انتشار عمومی پروژه های آزمایشی هوش مصنوعی برای عموم زود بوده است.
OpenAI زمانی در میان آزمایشگاههای برجسته هوش مصنوعی غیرمعمول بود، زیرا با اشتیاق رهبران تحقیقاتی مانند Sutskever از ایجاد هوش مصنوعی مافوق بشری و پتانسیل چنین فناوریهایی برای تبدیل شدن به بشریت صحبت میکردند. این نوع صحبتهای مهیب هوش مصنوعی در سال گذشته بسیار گستردهتر شد، پس از اینکه ChatGPT OpenAI را به برجستهترین و از نزدیکترین شرکت فناوری روی کره زمین تبدیل کرد. همانطور که محققان و سیاست گذاران با پیامدهای ChatGPT و چشم انداز هوش مصنوعی بسیار توانمندتر دست و پنجه نرم می کردند، نگرانی در مورد آسیب رساندن هوش مصنوعی به انسان یا کل بشریت کمتر بحث برانگیز شد.
نگرانی وجودی از آن زمان کاهش یافته است - و هوش مصنوعی هنوز نتوانسته جهش عظیم دیگری انجام دهد - اما نیاز به مقررات هوش مصنوعی همچنان یک موضوع داغ است. و این هفته OpenAI نسخه جدیدی از ChatGPT را به نمایش گذاشت که می تواند یک بار دیگر رابطه مردم با این فناوری را به روش های جدید قدرتمند و شاید مشکل ساز تغییر دهد.
خروج Sutskever و Leike اندکی پس از آخرین افشای بزرگ OpenAI رخ می دهد - یک مدل جدید هوش مصنوعی "چند وجهی" به نام GPT-4o که به ChatGPT اجازه می دهد جهان را ببیند و به روشی طبیعی تر و انسانی تر صحبت کند. یک نمایش زنده نشان داد که نسخه جدید ChatGPT از احساسات انسانی تقلید می کند و حتی سعی می کند با کاربران معاشقه کند. OpenAI گفته است که این رابط کاربری جدید را ظرف چند هفته در دسترس کاربران پولی قرار خواهد داد.
هیچ نشانهای وجود ندارد که خروجهای اخیر ارتباطی با تلاشهای OpenAI برای توسعه هوش مصنوعی انسانیتر یا ارسال محصولات داشته باشد. اما آخرین پیشرفتها سوالات اخلاقی را در مورد حریم خصوصی، دستکاری عاطفی و خطرات امنیت سایبری مطرح میکنند. OpenAI یک گروه تحقیقاتی دیگر به نام تیم آمادگی دارد که بر روی این موضوعات تمرکز دارد.
به روز رسانی 5/17/24 12:23 بعد از ظهر ET: این داستان به روز شده است تا شامل نظرات پست های Jan Leike در X باشد. محققانی که ظاهرا ترک کردهاند به درخواستها برای اظهار نظر پاسخ دادند.
منبع : Wired
🔹این مقاله به صورت ماشینی، توسط Aiticle ترجمه شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
5 شغل هوش مصنوعی که تا 180,000 دلار در سال 2024 درآمد دارند
مطلبی دیگر از این انتشارات
جریمه ۶ میلیون دلاری برای رباتتماسگیری که از فناوری هوش مصنوعی برای تقلید صدای بایدن استفاده کرد
مطلبی دیگر از این انتشارات
افزایش نگرانیها درباره هوش مصنوعی در صنعت سرگرمی بزرگسالان