یکی از کارکنان سابق OpenAI می‌گوید شرکت برنامه‌ای برای آغاز رقابت AGI با چین و روسیه داشته است

صحبت‌های بزرگ

در مصاحبه‌ای جدید، یکی از کارکنان سابق OpenAI ادعای جالبی درباره برنامه‌های کارفرمای سابق خود برای هوش مصنوعی عمومی (AGI) — و به طور خاص، چگونه از آن پول زیادی به‌دست آورند، مطرح کرد.

در طول مصاحبه‌ای طولانی با پادکستر فناوری Dwarkesh Patel، محقق سابق ایمنی OpenAI، Leopold Aschenbrenner ادعا کرد که "از چندین نفر شنیده" که کارفرمای سابقش در سال‌های گذشته طرحی برای آغاز یک رقابت AGI جهانی داشته است.

"Aschenbrenner به دوست پادکستر خود گفت: "در مقطعی، چند سال پیش، رهبری OpenAI طرحی برای تأمین مالی و فروش AGI با آغاز یک رقابت مزایده بین دولت‌های ایالات متحده، چین و روسیه ارائه کرده بود." او افزود که کارفرمای سابق خود را "حاضر به فروش AGI به دولت‌های چین و روسیه" دانستن "تعجب‌آور" بوده است.

Aschenbrenner ادامه داد: "همچنین، چیزی در مورد شروع این جنگ مزایده و سپس بازی دادن آن‌ها علیه یکدیگر، گفتن اینکه 'خب، اگر شما این کار را نکنید، چین این کار را خواهد کرد'، حس ناخوشایندی دارد."

Patel پاسخ داد: "جالب است، این خیلی وحشتناک است."


آتش و خشم

در طی همان مصاحبه، محقق سابق فاش کرد چرا اوایل امسال از OpenAI اخراج شده بود — زیرا، همان‌طور که او توضیح می‌دهد، منابع انسانی با یادداشتی که او به مدیران ارشد شرکت ارسال کرده و در آن درباره احتمال سرقت "اسرار کلیدی الگوریتمی" توسط حزب کمونیست چین هشدار داده بود، مشکل پیدا کرده بودند.

به گفته Aschenbrenner، HR یادداشت هشدار را "نژادپرستانه" و "ناکارآمد" قلمداد کرده بود، و پس از گردش آن، شرکت از او درباره وفاداری‌اش به شرکت سوال کرده بود. محقق سابق هماهنگی فوق‌العاده ادعا می‌کند که به دلیل افشای اطلاعات اخراج شده است، پس از اینکه شرکت کامپیوتر او را بررسی کرده و اسنادی که او در طول یک جلسه طوفان فکری درباره "آمادگی... تدابیر ایمنی و امنیتی" با پژوهشگران خارجی به اشتراک گذاشته بود، پیدا کرد.

ظاهراً HR با بندی که او درباره "برنامه‌ریزی برای AGI تا سال ۲۰۲۷ تا ۲۰۲۸ و عدم تعیین جدول زمانی برای آمادگی" درج کرده بود، مشکل داشتند و گفتند که آن پیش‌بینی محرمانه بوده و پیشنهاد کردند که به اشتراک گذاشتن آن به منزله افشا کردن اطلاعات محسوب می‌شود.

در بیانیه‌ای به Business Insider، OpenAI گفت که تعهد Aschenbrenner به "ساخت AGI ایمن" را به اشتراک می‌گذارد اما با توصیف او از کار شرکت موافق نیست. ما همچنین برای اظهار نظر درباره اتهامات "جنگ مزایده" به OpenAI مراجعه کرده‌ایم.

Aschenbrenner در مصاحبه به Patel گفت: "من فکر نمی‌کردم که افق برنامه‌ریزی حساس باشد. می‌دانید، این چیزی است که [مدیرعامل Sam Altman] همیشه به‌صورت علنی می‌گوید."


منبع : Futurism

🔹این مقاله به صورت ماشینی، توسط Aiticle تولید شده و ممکنه ایراداتی داشته باشه، فیدبک‌های شما به ما در جهت بهبود سیستممون خیلی کمک میکنه :) لطفا نظراتتون رو باهامون به اشتراک بگذارین.