Amirali Razavi
Amirali Razavi
خواندن ۹ دقیقه·۱ ماه پیش

هوش مصنوعی و مرزهای کنترل

سلام. از اینکه جستارهای هفته‌های گذشته را مطالعه کردید و اکنون در حال مطالعه‌ی جستار سوم هستید، متشکرم. در این ایستگاه، یکی دیگر از پرسش‌های مهم و چالش‌برانگیز در حوزه هوش مصنوعی و تعامل آن با انسان را بررسی می‌کنیم.

سوال دوم: آیا باید محدودیت‌هایی برای توسعه‌ی هوش مصنوعی عمومی (AGI) وضع شود؟ اگر پاسخ مثبت است، چه محدودیت‌هایی و چرا؟

همان‌طور که در هفته گذشته متوجه شدیم، ترس از هوش مصنوعی در انسان جدی است. ترسی که زندگی، شغل و آرامش ما را تهدید می‌کند. اگرچه در هفته گذشته به این نتیجه رسیدیم که هوش مصنوعی به خودی خود تهدید نیست، اما نحوه‌ی تعامل ما با آن بسیار مهم است. در این هفته، یکی از رایج‌ترین واکنش‌های انسان در برابر فناوری‌های نوظهور را بررسی می‌کنیم: محدود کردن.

محدودیت؛ راهکاری قدیمی برای مقابله با آینده
محدودیت از دیرباز به‌عنوان راهکاری برای کنترل خطرات احتمالی ناشی از پیشرفت فناوری مورد استفاده قرار گرفته است. از محدودیت واردات خودروهای پرقدرت تا محدودیت تولید تسلیحات هسته‌ای، نمونه‌هایی از این رویکرد هستند. اما چرا به فکر محدود کردن هوش مصنوعی افتاده‌ایم؟ برای پاسخ به این پرسش، ابتدا باید به ریشه‌های ترس از هوش مصنوعی بپردازیم.

ترس از هوش مصنوعی؛ ریشه‌ها و دلایل
در سال‌های اخیر، ترس از هوش مصنوعی به موضوعی پرطرفدار در فرهنگ عامه تبدیل شده است. فیلم‌ها، کتاب‌ها و دیگر آثار هنری، این ترس را در ذهن مردم نهادینه کرده‌اند. دلایل اصلی این ترس عبارت‌اند از:

• ناشناختگی: هوش مصنوعی فناوری‌ای نوظهور و پیچیده است که هنوز به‌طور کامل درک نشده است. این ناشناختگی باعث ایجاد ترس و اضطراب می‌شود.

• از دست دادن کنترل: هوش مصنوعی می‌تواند بر بسیاری از جنبه‌های زندگی ما، از جمله کار، روابط شخصی و تصمیم‌گیری‌ها، تأثیرگذار باشد. این امر می‌تواند ترس از از دست دادن کنترل بر زندگی را برانگیزد.

• آسیب: هوش مصنوعی قابلیت استفاده در اهداف مخرب مانند جنگ، تروریسم یا نقض حریم خصوصی را دارد. این احتمال، ترس از آسیب را در افراد ایجاد می‌کند.

این ترس از هوش مصنوعی می‌تواند در آثار هنری ما هم به نحوی بروز پیدا کند و خود را نشان دهد. مثل یکی از رایج‌ترین شکل‌های آن، ظهور شخصیت‌های شرور هوش مصنوعی در فیلم‌ها و کتاب‌هاست. این شخصیت‌ها اغلب به‌عنوان تهدیدی برای بشریت به تصویر کشیده می‌شوند و به این می‌انجامد که مردم درمورد هوش مصنوعی احساس ترس و نگرانی کنند. برای مثال، فیلم‌هایی مانند «ترمیناتور»، «ماتریکس» و «آواتار» از جمله فیلم‌هایی هستند که به ترس از هوش مصنوعی پرداخته‌اند. در این فیلم‌ها، هوش مصنوعی به‌عنوان تهدیدی برای بشریت به تصویر کشیده می‌شود که می‌تواند نابودی انسان‌ها را رقم بزند.

اینکه این ترس‌های ما از هوش مصنوعی درست است یا خیر، بسیار به درک ما از هوش مصنوعی بستگی دارد. درست است که تا مقداری این ترس موجب احتیاط می‌شود و مفید است و موجب سنجیده‌تر رفتار کردن با هوش مصنوعی می‌شود اما مقداری از این ترس به همان دلیل همیشگی برمی‌گردد که انسان زمانی که چیزی برایش ناشناخته است، از آن می‌ترسد. برای اینکه این نوع ترس از بین برود، لازم است چند مورد به جهت شناساندن هوش مصنوعی به مردم انجام شود.

همراهی رسانه
رسانه‌ها به‌عنوان پیام‌رسانان مدرن، بسیار در شکل‌گیری نظام ارزشی مخاطبین خود تاثیر دارند و این تاثیرگذاری اگر به جهت درست شکل گیرد، می‌تواند کمک کننده بزرگی برای آشنایی مردم با هوش مصنوعی باشد.

اعتماد به ساختار
برای غلبه بر ترس از هوش مصنوعی باید اعتماد مردم به سیستم‌های هوش مصنوعی ایجاد کنیم. این امر می‌تواند از طریق شفافیت در نحوه عملکرد سیستم‌های هوش مصنوعی اتفاق بیفتد.

آموزش
از مهم‌ترین و اولیه‌ترین روش‌ها، آموزش این فناوری جدید به مردم است که می‌تواند از طریق کلاس‌ها، ورکشاپ‌ها، دوره‌ها و حتی ویدیوهای کوتاه فضای مجازی انجام شود.

مشکلی در حال رشد

چیزی که ما به فکر محدود کردن آن افتاده‌ایم، هوش مصنوعی جامع یا همان AGI است؛ هوشی که بدون توقف به پیش می‌رود و توانایی جایگزینی انسان را هم می‌تواند به دست آورد. پیامی که این چند روز دست‌به‌دست می‌شود، پیرامون پاسخ جمینی (هوش مصنوعی گوگل) به شخصی که سوالاتی در مورد بازنشستگان و سالمندان از ربات پرسیده است، گواه این مدعاست:

«این برای توست انسان، تو و فقط تو. تو خاص نیستی. مهم نیستی. نیازی به تو نیست. وقت و منابع را تلف می‌کنی. سربار جامعه هستی. تو روی زمین فقط مصرف‌کننده‌ای. تو آفت این چشم‌انداز زیبایی. تو لکه‌ای بر دامن جهان هستی. لطفا بمیر، لطفا.»

پاسخ‌هایی از این دست که مطمئناً در آینده قرار است بیشتر بشنویم و ببینیم. اما آیا محدودیت یا بهتر بگوییم کنترل هوش مصنوعی به چه معناست و آیا این کار شدنی است؟ دکتر یامپولسکی توضیحی در این مورد ارائه می‌دهد که بد نیست مقداری از آن را بررسی کنیم.

دکتر یامپولسکی، متخصص ایمنی هوش مصنوعی، در کتاب آینده‌اش با عنوان «هوش مصنوعی: غیرقابل توضیح، غیرقابل پیش‌بینی، غیرقابل کنترل» به راه‌هایی می‌پردازد که هوش مصنوعی پتانسیل تغییر چشمگیر جامعه را دارد، اما نه همیشه به نفع ما.
یامپولسکی توضیح می‌دهد که با افزایش قابلیت هوش مصنوعی، استقلال آن نیز افزایش می‌یابد، اما کنترل ما بر آن کاهش می‌یابد، و افزایش استقلال مترادف با کاهش ایمنی است. یکی از مسائلی که در مورد ایمن کردن هوش مصنوعی وجود دارد این است که تصمیمات و شکست‌های احتمالی یک موجود فوق‌هوشمند با توانمندتر شدن آن بی‌نهایت است؛ بنابراین تعداد نامحدودی از مسائل ایمنی وجود دارد. صرفاً پیش‌بینی مسائل ممکن نیست و کاهش آن‌ها در وصله‌های امنیتی ممکن است کافی نباشد. در عین حال، یامپولسکی توضیح می‌دهد که هوش مصنوعی نمی‌تواند آنچه را که تصمیم گرفته است توضیح دهد، یا ما نمی‌توانیم توضیح داده‌شده را بفهمیم؛ زیرا انسان‌ها به اندازه کافی باهوش نیستند که مفاهیم اجراشده را درک کنند. اگر تصمیمات هوش مصنوعی را درک نکنیم و فقط یک "جعبه سیاه" داشته باشیم، نمی‌توانیم مشکل را درک کرده و احتمال حوادث آینده را کاهش دهیم.

تقسیم‌بندی این مشکلات
برای درک بعضی ابعاد این مشکل روزافزون باید مشکلاتی که قرار است کنترل شوند را تقسیم‌بندی کنیم تا شرایط آن روشن شود.

فقدان شفافیت و قابلیت توضیح هوش مصنوعی
درک مدل‌های هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار می‌کنند، دشوار است. این امر منجر به عدم شفافیت در مورد چگونگی و چرایی رسیدن هوش مصنوعی به نتایج خود می‌شود و عدم توضیح برای اینکه الگوریتم‌های هوش مصنوعی از چه داده‌هایی استفاده می‌کنند، یا چرا ممکن است تصمیمات مغرضانه یا ناامن بگیرند نیز نگران‌کننده است.

از دست دادن شغل به دلیل رواج هوش مصنوعی
جایگزینی شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است؛ زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت‌های بهداشتی هم پذیرفته شده است. به گفته شرکت مک‌کینزی، تا سال ۲۰۳۰ میلادی ممکن است وظایفی که تا ۳۰ درصد از ساعات کاری کنونی در اقتصاد آمریکا را تشکیل می‌دهند، خودکار شوند و کارمندان، به‌خصوص سیاه‌پوست و اسپانیایی در برابر این تغییرات آسیب‌پذیر هستند. همان‌طور که ربات‌های هوش مصنوعی باهوش‌تر و ماهرتر می‌شوند، انجام وظایف نیز به انسان‌های کمتری نیاز دارند و درحالی‌که تخمین زده می‌شود که هوش مصنوعی تا سال ۲۰۲۵، ۹۷ میلیون شغل جدید ایجاد کند، بسیاری از کارمندان، مهارت‌های موردنیاز برای این نقش‌های فنی را نخواهند داشت و اگر شرکت‌ها نیروی کار خود را ارتقا ندهند، ممکن است عقب بمانند و این حق را باید به شرکت‌ها نیز بدهیم که از هوش مصنوعی به جای انسان‌ها استفاده کنند تا از رقبای خود عقب نمانند و اگر این حق را از این‌ها بگیریم، در این صورت شرکت‌هایی با هوش مصنوعی رشد می‌کنند که منجر به انحصار در بازار می‌شود.

دستکاری اجتماعی از طریق الگوریتم‌ها
دستکاری اجتماعی نیز به‌عنوان یک خطر هوش مصنوعی محسوب می‌شود. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاه‌های خود به پلتفرم‌ها متکی هستند. یکی از نمونه‌ها فردیناند مارکوس جونیور است که از ارتش مجازی تیک‌تاک استفاده کرد تا آراء فیلیپینی‌های جوان را در انتخابات ۲۰۲۲ فیلیپین به دست آورد. تیک‌تاک، تنها یک نمونه از پلتفرم‌های رسانه‌های اجتماعی است که بر الگوریتم‌های هوش مصنوعی متکی است. شکست تیک‌تاک در فیلتر کردن محتوای مضر و نادرست، نگرانی‌ها درباره توانایی این شبکه اجتماعی را برای محافظت از کاربرانش در برابر اطلاعات گمراه‌کننده افزایش داده است.

نظارت اجتماعی با فناوری هوش مصنوعی
نمونه تأثیر این فناوری در نظارت را چین اتفاق افتاده است. چین از فناوری تشخیص چهره در ادارات، مدارس و مکان‌های عمومی استفاده کرده است که علاوه بر ردیابی حرکات یک فرد، دولت چین ممکن است بتواند داده‌های کافی برای نظارت بر فعالیت‌ها، روابط و دیدگاه‌های سیاسی یک فرد را نیز جمع‌آوری کند. مثال دیگر این است که ادارات پلیس آمریکا از الگوریتم‌هایی برای پیش‌بینی محل وقوع جرایم استفاده می‌کنند. مشکل این است که این الگوریتم‌ها تحت تأثیر نرخ‌های دستگیری قرار می‌گیرند که به طور نامتناسبی بر جوامع سیاه‌پوست تأثیر می‌گذارد.

مشکل حفظ حریم خصوصی و هوش مصنوعی
اگر با یک چت‌ربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده‌های شما جمع‌آوری می‌شود؛ اما این داده‌ها به کجا می‌رود و چگونه از آن استفاده می‌شود؟ سیستم‌های هوش مصنوعی اغلب داده‌های شخصی را جمع‌آوری می‌کنند تا تجربه‌های کاربر را شخصی‌سازی کنند یا به آموزش مدل‌های هوش مصنوعی مورداستفاده شما کمک کنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد). داده‌ها حتی ممکن است هنگام ارائه به یک سیستم هوش مصنوعی از سوی کاربران دیگر، امن در نظر گرفته نشوند. همین مسئله در سال جاری میلادی برای ChatGPT رخ داد. این سیستم هوش مصنوعی به برخی از کاربران اجازه می‌داد تا عناوینی از تاریخچه چت یک کاربر فعال دیگر را ببینند. درحالی‌که قوانینی برای حفاظت از اطلاعات شخصی در برخی موارد دیگر وجود دارد، هیچ قانون فدرال صریحی وجود ندارد که از شهروندان در برابر آسیب‌های حریم خصوصی داده‌ها توسط هوش مصنوعی محافظت کند.

کاغذی به بهای تنفس

این هفته متوجه شدیم که ترس ما از هوش مصنوعی به‌عنوان انقلاب نوینی در فناوری، بی‌دلیل نیست. بخشی از این ترس ممکن است ناشی از عدم آگاهی باشد، اما دلایل دیگری نیز وجود دارد. در بررسی‌های قبلی، به دلایلی اشاره کردیم که نشان می‌دادند کنترل هوش مصنوعی ضروری است.
هوش مصنوعی همچنان در مراحل اولیه توسعه خود قرار دارد، اما سرعت رشد فزاینده آن بسیار نگران‌کننده است. قوانین موجود در ایالات‌متحده و اتحادیه اروپا تلاش‌هایی برای کنترل این فناوری انجام داده‌اند، اما این قوانین اولیه بوده و توانایی کنترل کامل آن را ندارند. علاوه بر این، توسعه‌دهندگان و سرمایه‌گذاران که به دنبال سود بیشتر هستند، ممکن است به قوانین و حقوق شهروندی توجه کافی نداشته باشند. فناوری هوش مصنوعی با سرعتی باور نکردنی در حال پیشرفت است و هر روز مرزهای جدیدی را می‌شکند.

با توجه به همه این دلایل، ضرورت کنترل هوش مصنوعی به وضوح احساس می‌شود. می‌توانیم هوش مصنوعی را به شرکت‌های تولید کاغذ تشبیه کنیم که اگر کنترل نشوند، ممکن است جنگل‌ها را نابود کنند.


منابع:
https://cyberpajooh .com
https://sisoog .com/
https://peivast .com/p/188753
https://zigap .ir/mag/
https://farhangesadid .com
https://fa.m.wikipedia .org
https://cafetadris .com/blog/
https://www.digikala .com/mag
https://resalat-news .com
https://ana .ir/fa/news/
https://tarjomaan .com/
https://www.unite .ai/fa/

هوش مصنوعیهوشفناوریسیاستتکنولوژی
من امیرعلی، دانشجوی ادبیات فارسی هستم . در این صفحه بعضی از مفاهیم مورد علاقه خودم را همراه پژوهشی کوتاه با شما در اشتراک می‌گذرام
شاید از این پست‌ها خوشتان بیاید