صرافی ارز دیجیتال تبدیل
صرافی ارز دیجیتال تبدیل
خواندن ۶ دقیقه·۲ سال پیش

چرا ایلان ماسک از هوش مصنوعی ترسیده است؟

ایلان ماسک به‌همراه جمع بزرگی از رهبران فناوری جهان با انتشار نامه سرگشاده‌ای خطاب به دولت ایالات متحده خواستار توقف موقت اقدامات در جهت پیشرفت فناوری هوش‌مصنوعی شده‌اند. این افراد معتقدند هوش‌مصنوعی خواه‌ناخواه باعث تغییرات شگفتی در نحوه زندگی بر بشر بر روی کره زمین خواهد شد.

اما چرا ایلان ماسک مدیر تسلا، اسپیس ایکس و فناوری‌های بزرگ تحول برانگیز از هوش‌مصنوعی ترسیده‌است؟ هوش‌مصنوعی چه خطراتی برای بشریت دارد که برترین رهبران فناوری جهان خواستار توقف موقت تحقیقات و توسعه این محصولات شده‌اند؟ برای پاسخ به این سؤال و بررسی هر چه بیشتر این نامه عجیب در ادامه این مقاله با ما همراه باشید.

نامه سرگشاده و هشدار خطرات هوشمصنوعی

بیش از ۲۶۰۰ نفر از رهبران و محققان بخش فناوری نامه سرگشاده‌ای را امضا کرده‌اند و به‌خاطر «خطر عمیق برای جامعه و بشریت» خواستار توقف فوری توسعه هوش‌مصنوعی شده‌اند.

ایلان ماسک مدیرعامل تسلا، استیو وازنیاک هم‌بنیان‌گذار شرکت اپل و جمعی از مدیران و محققان هوش‌مصنوعی در میان امضاکنندگان این نامه قرار دارند. این نامه در روز ۲۲ مارس ۲۰۲۳ از سوی اندیشگاه مؤسسه آینده زندگی ایالات متحده آمریکا (FOLI) منتشر شده‌است.

نظرات ایلان ماسک درباره خطرات هوش‌مصنوعی

ایلان ماسک خود پیش‌تر یکی از هم‌بنیان‌گذاران OpenAIیکی از پیشتازان فناوری هوش‌مصنوعی و سازنده ChatGpt بوده است که بعدها از این شکت خارج شده‌است.

ماسک قبل از این هم بارهاوبارها نگرانی خود را نسبت به آینده هوش‌مصنوعی ابراز کرده بود. یکی از مشهورترین ابراز نظرهای ایلان ماسک راجع به هوش‌مصنوعی این است که: «حرف‌هایم را یادداشت کنید. هوش‌مصنوعی خیلی خطرناک‌تر از بمب هسته‌ای است. پس چرا روی این حوزه نظارت همیشگی نداریم؟»

عده‌ای سخنان ایلان ماسک در مخالفت با هوش‌مصنوعی را مسئله‌ای تجاری می‌دانند و گمان می‌کنند به‌خاطر ترس از نتایج هوش‌مصنوعی و تأثیر آن بر کسب‌وکارهای اوست. با این وجود به نظر می‌رسد باتوجه‌به مشارکت ایلان ماسک در پروژه OpenAI او نگرانی‌هایی در سطوح بالاتری مانند نظامی و حیاتی دارد که نمی‌خواهد این نگرانی‌ها را در عرصه عمومی بیان کند و باعث نگرانی هرچه بیشتر مردم عادی شود.

ماسک در جای دیگری می‌گوید: «من در شرایط عادی معمولاً طرف‌دار سخت‌گیری‌های قانونی و نظارت‌های دولتی نیستم و فکر می‌کنم چنین اقداماتی باید به حداقل برسد، اما در مورد هوش‌مصنوعی نمی‌شود سخت‌گیر نبود، این خطر بزرگی است که جامعه را تهدید می‌کند».

نگرانی‌های بزرگان فناوری از آینده هوش‌مصنوعی

مؤسسه FOLI از همه شرکت‌های توسعه‌دهنده هوش‌مصنوعی خواسته است که آموزش سیستم‌های هوش‌مصنوعی که قوی‌تر از Gpt-4 هستند را «حداقل برای شش ماه فوراً متوقف کنند». دغدغه اصلی اعلام شده این است که هوش‌مصنوعی در رقابت با هوش انسان می‌تواند خطرات عمیقی را متوجه جامعه و بشریت کند.

«هوش‌مصنوعی پیشرفته می‌تواند تغییرات شگرفی را در تاریخ زندگی انسان بر روی کره زمین ایجاد کند که لازم است برای این تغییرات برنامه‌ریزی انجام شود و مراقبت لازم صورت گرفته و منابع مورد نیاز تأمین شود.»

این مؤسسه معتقد است: «در حال حاضر این سطح از مراقبت و مدیریت موجود نیست».

نسخه GPT-4 آخرین نسخه منتشر شده از هوش‌مصنوعی OpenAIاست که در 14 مارس منتشر شد. این هوش‌مصنوعی تاکنون توانسته است از پس سخت‌ترین آزمون‌های دبیرستانی و مدرسه حقوق ایالات متحده برآید و بیش از 90 درصد پرسش‌ها را به‌درستی پاسخ دهد. به نظر می‌رسد این نسخه ۱۰ برابر نسبت به نسخه اولیه ChatGPT بهتر عمل می‌کند.

امضاکنندگان این نامه سرگشاده معتقدند رقابت خارج از کنترلی میان شرکت‌های توسعه‌دهنده هوش‌مصنوعی شکل‌گرفته است که هیچ‌کس (حتی سازندگان این هوش‌های مصنوعی) نمی‌تواند فهم و پیش‌بینی درستی نسبت به آینده استفاده از این محصولات داشته‌باشد.

یکی از نگرانی‌های مهم ایلان ماسک و دیگر رهبران امضاکننده این بیانیه این است که هوش‌مصنوعی بتواند کانال‌های ارتباطی را با «پروپاگاندا و اطلاعات غیرواقعی» بمباران کند و از سوی دیگر فرصت‌های شغلی را از انسان‌ها «برباید».

امضاکنندگان بیانیه نگرانی خود را در سطح بالاتری اظهار می‌کنند و می‌گویند «تلاش‌های کارآفرینانه این شرکت‌های هوش‌مصنوعی ممکن است به تهدیدی وجودی برای انسان تبدیل شود».

«آیا این درست است که ذهن‌های غیرانسانی را تربیت کنیم که در نهایت هم از نظر تعداد و هم از نظر میزان هوش از ما پیشی بگیرند و جایگزین ما شوند؟ آیا این درست است که خطر ازدست‌دادن کنترل تمدن‌هایمان را به‌جا بخریم؟»

ایلان ماسک و دیگر امضاکنندگان این بیانیه معتقد هستند که «چنین تصمیمات خطیری نباید از سوی برخی رهبران غیرانتخابی صنایع فناورانه اتخاذ شود».

مؤسسه FOLI با این سخن بنیان‌گذار OpenAIیعنی سم آلتمن موافق است که پیش از آموزش سیستم‌های جدید هوش‌مصنوعی لازم است تحقیقات مستقلی صورت بگیرد.

سم آلتمن بیست و چهارم فوریه طی پستی در وبلاگ خود نیاز به آماده‌شدن برای هوش عمومی مصنوعی (AGI) و فراهوش مصنوعی (ASI) را امری جدی بیان کرده بود.

بزرگ‌نمایی خطرات ارز دیجیتال در مقابل خطرات هوش‌مصنوعی

بن جئوتزل مدیرعامل SingularityNET، شرکتی که در زمینه توسعه هوش‌مصنوعی غیر متمرکز فعالیت می‌کند، می‌گوید این‌طور نیست که همه دانشمندان عرصه هوش‌مصنوعی این نامه اعتراضی را امضا کرده باشد. او معتقد است مدل‌های یادگیری زبانی (LLM) هنوز تا این تاریخ نمی‌توانند به هوش‌مصنوعی عمومی (AGI) تبدیل شوند و کارهای اندکی در این زمینه صورت‌گرفته است.

او می‌گوید به‌جای بزرگ‌نمایی در این زمینه ما باید چیزهایی مثل تحقیقات بر روی سلاح‌های زیستی و بمب‌های هسته‌ای را کند کنیم.

فناوری جعل عمیق (Deep Fake)

علاوه بر مدل یادگیری زبانی ChatGPT فناوری‌های جعل عمیق (Deep Fake) مبتنی بر هوش‌مصنوعی برای ایجاد تصاویر، فایل‌های صوتی و ویدئویی و شایعه‌پراکنی مورداستفاده قرار گرفته‌اند. این فناوری‌ها برای ایجاد اثرهای هنری مبتنی بر هوش‌مصنوعی هم مورداستفاده قرار گرفته‌اند که این مسئله نگرانی‌هایی را درباره اینکه این کار می‌تواند برای قوانین کپی‌رایت مشکل‌ساز باشد یا خیر ایجاد کرده است.

مایک نووگراتز مدیر Galaxy Digital می‌گوید: از میزان سخت‌گیری و توجهی که دولت‌ها نسبت به ارزهای دیجیتال دارند متعجب است درحالی‌که سخت‌گیری‌ها درباره مسئله هوش‌مصنوعی بسیار اندک بوده است.

او می‌گوید: «وقتی راجع به هوش‌مصنوعی فکر می‌کنم، شگفت‌زده می‌شوم که این همه راجع به قوانین رمز ارزها صحبت می‌کنیم؛ اما هیچ حرفی راجع به قوانین و مقررات هوش‌مصنوعی نمی‌زنیم. فکر می‌کنم دولت کاملاً برعکس قضیه را متوجه شده‌است.»

نیاز به توقف سریع و دخالت دولت

ایلان ماسک و رهبران فناوری که نامه اعتراضی را امضا کرده‌اند معتقدند توقف در توسعه هوش‌مصنوعی باید اتفاق بیفتد و دولت‌ها باید برای این کار ضرب‌الاجل تعیین کنند.

«این توقف باید به‌صورت عمومی اعلام شده و صحت‌سنجی شود و همه بازیگران کلیدی باید آن را رعایت کنند. اگر این اقدام به‌سرعت انجام نشود، دولت‌ها باید دخالت کنند و به‌سرعت ضرب‌الاجل تعیین کنند.»

جمع‌بندی

به نظر می‌رسد مسائلی همچون ایجاد تغییرات شگفت مثبت و منفی در زندگی انسان‌ها و نگرانی از برتری‌یابی هوش‌مصنوعی نسبت به انسان باعث نگرانی شدید ایلان ماسک و دیگر رهبران فناوری نسبت به توسعه هوش‌مصنوعی شده‌است.

ایلان ماسک و محققان این صنعت معتقد هستند فعالیت‌های توسعه هوش‌مصنوعی تا رسیدگی دولت‌ها و ایجاد قوانین موردنیاز باید متوقف شود و حد و مرزی برای توسعه هوش‌مصنوعی مشخص شود تا چنین نگرانی‌هایی از بین برود.

به نظر می‌رسد اتهام‌هایی نظیر حسادت‌ها و رقابت‌های کسب‌وکاری به ایلان ماسک به‌خاطر مخالفت‌ها با هوش‌مصنوعی به‌علت ساده‌انگاری باشد و دغدغه‌های مطرح شده از سوی جمع کثیری از بزرگان فناوری در جهان بسیار عمیق‌تر و جدی‌تر است.

شما راجع به آینده هوش‌مصنوعی چه فکر می‌کنید؟ آیا این فناوری می‌تواند باعث بیکاری بشر و یا مشکلات بزرگ‌تری برای گونه انسان شود؟ به نظر شما منافع هوش‌مصنوعی نصیب بشریت می‌شود یا خطرات آن در آینده دامن ما را خواهد گرفت؟

ایلان ماسکهوش مصنوعیchatgptارز دیجیتالکریپتو
تبدیل ؛ خرید و فروش امن آنلاین ارز‌های دیجیتال | tabdeal.org
شاید از این پست‌ها خوشتان بیاید