خبرها و مقالات به روز دنیای هوشمصنوعی «به فارسی» Ai Article
یکی از کارکنان سابق OpenAI میگوید شرکت برنامهای برای آغاز رقابت AGI با چین و روسیه داشته است
صحبتهای بزرگ
در مصاحبهای جدید، یکی از کارکنان سابق OpenAI ادعای جالبی درباره برنامههای کارفرمای سابق خود برای هوش مصنوعی عمومی (AGI) — و به طور خاص، چگونه از آن پول زیادی بهدست آورند، مطرح کرد.
در طول مصاحبهای طولانی با پادکستر فناوری Dwarkesh Patel، محقق سابق ایمنی OpenAI، Leopold Aschenbrenner ادعا کرد که "از چندین نفر شنیده" که کارفرمای سابقش در سالهای گذشته طرحی برای آغاز یک رقابت AGI جهانی داشته است.
"Aschenbrenner به دوست پادکستر خود گفت: "در مقطعی، چند سال پیش، رهبری OpenAI طرحی برای تأمین مالی و فروش AGI با آغاز یک رقابت مزایده بین دولتهای ایالات متحده، چین و روسیه ارائه کرده بود." او افزود که کارفرمای سابق خود را "حاضر به فروش AGI به دولتهای چین و روسیه" دانستن "تعجبآور" بوده است.
Aschenbrenner ادامه داد: "همچنین، چیزی در مورد شروع این جنگ مزایده و سپس بازی دادن آنها علیه یکدیگر، گفتن اینکه 'خب، اگر شما این کار را نکنید، چین این کار را خواهد کرد'، حس ناخوشایندی دارد."
Patel پاسخ داد: "جالب است، این خیلی وحشتناک است."
آتش و خشم
در طی همان مصاحبه، محقق سابق فاش کرد چرا اوایل امسال از OpenAI اخراج شده بود — زیرا، همانطور که او توضیح میدهد، منابع انسانی با یادداشتی که او به مدیران ارشد شرکت ارسال کرده و در آن درباره احتمال سرقت "اسرار کلیدی الگوریتمی" توسط حزب کمونیست چین هشدار داده بود، مشکل پیدا کرده بودند.
به گفته Aschenbrenner، HR یادداشت هشدار را "نژادپرستانه" و "ناکارآمد" قلمداد کرده بود، و پس از گردش آن، شرکت از او درباره وفاداریاش به شرکت سوال کرده بود. محقق سابق هماهنگی فوقالعاده ادعا میکند که به دلیل افشای اطلاعات اخراج شده است، پس از اینکه شرکت کامپیوتر او را بررسی کرده و اسنادی که او در طول یک جلسه طوفان فکری درباره "آمادگی... تدابیر ایمنی و امنیتی" با پژوهشگران خارجی به اشتراک گذاشته بود، پیدا کرد.
ظاهراً HR با بندی که او درباره "برنامهریزی برای AGI تا سال ۲۰۲۷ تا ۲۰۲۸ و عدم تعیین جدول زمانی برای آمادگی" درج کرده بود، مشکل داشتند و گفتند که آن پیشبینی محرمانه بوده و پیشنهاد کردند که به اشتراک گذاشتن آن به منزله افشا کردن اطلاعات محسوب میشود.
در بیانیهای به Business Insider، OpenAI گفت که تعهد Aschenbrenner به "ساخت AGI ایمن" را به اشتراک میگذارد اما با توصیف او از کار شرکت موافق نیست. ما همچنین برای اظهار نظر درباره اتهامات "جنگ مزایده" به OpenAI مراجعه کردهایم.
Aschenbrenner در مصاحبه به Patel گفت: "من فکر نمیکردم که افق برنامهریزی حساس باشد. میدانید، این چیزی است که [مدیرعامل Sam Altman] همیشه بهصورت علنی میگوید."
منبع : Futurism
🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبکهای شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.
مطلبی دیگر از این انتشارات
قدرت App Inventor: دموکراتیک کردن امکانات برای برنامه های تلفن همراه
مطلبی دیگر از این انتشارات
ایلیا سوتسکور(Ilya Sutskever) دانشمند ارشد OpenAI، رسما می رود
مطلبی دیگر از این انتشارات
هوش مصنوعی باب اسفنجی را به یک کمدی اکشن زنده دهه 1980 تبدیل می کند و مردم می گویند که به طور جدی دقیق است