ایلان ماسک بههمراه جمع بزرگی از رهبران فناوری جهان با انتشار نامه سرگشادهای خطاب به دولت ایالات متحده خواستار توقف موقت اقدامات در جهت پیشرفت فناوری هوشمصنوعی شدهاند. این افراد معتقدند هوشمصنوعی خواهناخواه باعث تغییرات شگفتی در نحوه زندگی بر بشر بر روی کره زمین خواهد شد.
اما چرا ایلان ماسک مدیر تسلا، اسپیس ایکس و فناوریهای بزرگ تحول برانگیز از هوشمصنوعی ترسیدهاست؟ هوشمصنوعی چه خطراتی برای بشریت دارد که برترین رهبران فناوری جهان خواستار توقف موقت تحقیقات و توسعه این محصولات شدهاند؟ برای پاسخ به این سؤال و بررسی هر چه بیشتر این نامه عجیب در ادامه این مقاله با ما همراه باشید.
بیش از ۲۶۰۰ نفر از رهبران و محققان بخش فناوری نامه سرگشادهای را امضا کردهاند و بهخاطر «خطر عمیق برای جامعه و بشریت» خواستار توقف فوری توسعه هوشمصنوعی شدهاند.
ایلان ماسک مدیرعامل تسلا، استیو وازنیاک همبنیانگذار شرکت اپل و جمعی از مدیران و محققان هوشمصنوعی در میان امضاکنندگان این نامه قرار دارند. این نامه در روز ۲۲ مارس ۲۰۲۳ از سوی اندیشگاه مؤسسه آینده زندگی ایالات متحده آمریکا (FOLI) منتشر شدهاست.
ایلان ماسک خود پیشتر یکی از همبنیانگذاران OpenAIیکی از پیشتازان فناوری هوشمصنوعی و سازنده ChatGpt بوده است که بعدها از این شکت خارج شدهاست.
ماسک قبل از این هم بارهاوبارها نگرانی خود را نسبت به آینده هوشمصنوعی ابراز کرده بود. یکی از مشهورترین ابراز نظرهای ایلان ماسک راجع به هوشمصنوعی این است که: «حرفهایم را یادداشت کنید. هوشمصنوعی خیلی خطرناکتر از بمب هستهای است. پس چرا روی این حوزه نظارت همیشگی نداریم؟»
عدهای سخنان ایلان ماسک در مخالفت با هوشمصنوعی را مسئلهای تجاری میدانند و گمان میکنند بهخاطر ترس از نتایج هوشمصنوعی و تأثیر آن بر کسبوکارهای اوست. با این وجود به نظر میرسد باتوجهبه مشارکت ایلان ماسک در پروژه OpenAI او نگرانیهایی در سطوح بالاتری مانند نظامی و حیاتی دارد که نمیخواهد این نگرانیها را در عرصه عمومی بیان کند و باعث نگرانی هرچه بیشتر مردم عادی شود.
ماسک در جای دیگری میگوید: «من در شرایط عادی معمولاً طرفدار سختگیریهای قانونی و نظارتهای دولتی نیستم و فکر میکنم چنین اقداماتی باید به حداقل برسد، اما در مورد هوشمصنوعی نمیشود سختگیر نبود، این خطر بزرگی است که جامعه را تهدید میکند».
مؤسسه FOLI از همه شرکتهای توسعهدهنده هوشمصنوعی خواسته است که آموزش سیستمهای هوشمصنوعی که قویتر از Gpt-4 هستند را «حداقل برای شش ماه فوراً متوقف کنند». دغدغه اصلی اعلام شده این است که هوشمصنوعی در رقابت با هوش انسان میتواند خطرات عمیقی را متوجه جامعه و بشریت کند.
«هوشمصنوعی پیشرفته میتواند تغییرات شگرفی را در تاریخ زندگی انسان بر روی کره زمین ایجاد کند که لازم است برای این تغییرات برنامهریزی انجام شود و مراقبت لازم صورت گرفته و منابع مورد نیاز تأمین شود.»
این مؤسسه معتقد است: «در حال حاضر این سطح از مراقبت و مدیریت موجود نیست».
نسخه GPT-4 آخرین نسخه منتشر شده از هوشمصنوعی OpenAIاست که در 14 مارس منتشر شد. این هوشمصنوعی تاکنون توانسته است از پس سختترین آزمونهای دبیرستانی و مدرسه حقوق ایالات متحده برآید و بیش از 90 درصد پرسشها را بهدرستی پاسخ دهد. به نظر میرسد این نسخه ۱۰ برابر نسبت به نسخه اولیه ChatGPT بهتر عمل میکند.
امضاکنندگان این نامه سرگشاده معتقدند رقابت خارج از کنترلی میان شرکتهای توسعهدهنده هوشمصنوعی شکلگرفته است که هیچکس (حتی سازندگان این هوشهای مصنوعی) نمیتواند فهم و پیشبینی درستی نسبت به آینده استفاده از این محصولات داشتهباشد.
یکی از نگرانیهای مهم ایلان ماسک و دیگر رهبران امضاکننده این بیانیه این است که هوشمصنوعی بتواند کانالهای ارتباطی را با «پروپاگاندا و اطلاعات غیرواقعی» بمباران کند و از سوی دیگر فرصتهای شغلی را از انسانها «برباید».
امضاکنندگان بیانیه نگرانی خود را در سطح بالاتری اظهار میکنند و میگویند «تلاشهای کارآفرینانه این شرکتهای هوشمصنوعی ممکن است به تهدیدی وجودی برای انسان تبدیل شود».
«آیا این درست است که ذهنهای غیرانسانی را تربیت کنیم که در نهایت هم از نظر تعداد و هم از نظر میزان هوش از ما پیشی بگیرند و جایگزین ما شوند؟ آیا این درست است که خطر ازدستدادن کنترل تمدنهایمان را بهجا بخریم؟»
ایلان ماسک و دیگر امضاکنندگان این بیانیه معتقد هستند که «چنین تصمیمات خطیری نباید از سوی برخی رهبران غیرانتخابی صنایع فناورانه اتخاذ شود».
مؤسسه FOLI با این سخن بنیانگذار OpenAIیعنی سم آلتمن موافق است که پیش از آموزش سیستمهای جدید هوشمصنوعی لازم است تحقیقات مستقلی صورت بگیرد.
سم آلتمن بیست و چهارم فوریه طی پستی در وبلاگ خود نیاز به آمادهشدن برای هوش عمومی مصنوعی (AGI) و فراهوش مصنوعی (ASI) را امری جدی بیان کرده بود.
بن جئوتزل مدیرعامل SingularityNET، شرکتی که در زمینه توسعه هوشمصنوعی غیر متمرکز فعالیت میکند، میگوید اینطور نیست که همه دانشمندان عرصه هوشمصنوعی این نامه اعتراضی را امضا کرده باشد. او معتقد است مدلهای یادگیری زبانی (LLM) هنوز تا این تاریخ نمیتوانند به هوشمصنوعی عمومی (AGI) تبدیل شوند و کارهای اندکی در این زمینه صورتگرفته است.
او میگوید بهجای بزرگنمایی در این زمینه ما باید چیزهایی مثل تحقیقات بر روی سلاحهای زیستی و بمبهای هستهای را کند کنیم.
علاوه بر مدل یادگیری زبانی ChatGPT فناوریهای جعل عمیق (Deep Fake) مبتنی بر هوشمصنوعی برای ایجاد تصاویر، فایلهای صوتی و ویدئویی و شایعهپراکنی مورداستفاده قرار گرفتهاند. این فناوریها برای ایجاد اثرهای هنری مبتنی بر هوشمصنوعی هم مورداستفاده قرار گرفتهاند که این مسئله نگرانیهایی را درباره اینکه این کار میتواند برای قوانین کپیرایت مشکلساز باشد یا خیر ایجاد کرده است.
مایک نووگراتز مدیر Galaxy Digital میگوید: از میزان سختگیری و توجهی که دولتها نسبت به ارزهای دیجیتال دارند متعجب است درحالیکه سختگیریها درباره مسئله هوشمصنوعی بسیار اندک بوده است.
او میگوید: «وقتی راجع به هوشمصنوعی فکر میکنم، شگفتزده میشوم که این همه راجع به قوانین رمز ارزها صحبت میکنیم؛ اما هیچ حرفی راجع به قوانین و مقررات هوشمصنوعی نمیزنیم. فکر میکنم دولت کاملاً برعکس قضیه را متوجه شدهاست.»
ایلان ماسک و رهبران فناوری که نامه اعتراضی را امضا کردهاند معتقدند توقف در توسعه هوشمصنوعی باید اتفاق بیفتد و دولتها باید برای این کار ضربالاجل تعیین کنند.
«این توقف باید بهصورت عمومی اعلام شده و صحتسنجی شود و همه بازیگران کلیدی باید آن را رعایت کنند. اگر این اقدام بهسرعت انجام نشود، دولتها باید دخالت کنند و بهسرعت ضربالاجل تعیین کنند.»
به نظر میرسد مسائلی همچون ایجاد تغییرات شگفت مثبت و منفی در زندگی انسانها و نگرانی از برترییابی هوشمصنوعی نسبت به انسان باعث نگرانی شدید ایلان ماسک و دیگر رهبران فناوری نسبت به توسعه هوشمصنوعی شدهاست.
ایلان ماسک و محققان این صنعت معتقد هستند فعالیتهای توسعه هوشمصنوعی تا رسیدگی دولتها و ایجاد قوانین موردنیاز باید متوقف شود و حد و مرزی برای توسعه هوشمصنوعی مشخص شود تا چنین نگرانیهایی از بین برود.
به نظر میرسد اتهامهایی نظیر حسادتها و رقابتهای کسبوکاری به ایلان ماسک بهخاطر مخالفتها با هوشمصنوعی بهعلت سادهانگاری باشد و دغدغههای مطرح شده از سوی جمع کثیری از بزرگان فناوری در جهان بسیار عمیقتر و جدیتر است.
شما راجع به آینده هوشمصنوعی چه فکر میکنید؟ آیا این فناوری میتواند باعث بیکاری بشر و یا مشکلات بزرگتری برای گونه انسان شود؟ به نظر شما منافع هوشمصنوعی نصیب بشریت میشود یا خطرات آن در آینده دامن ما را خواهد گرفت؟