سلام. از اینکه جستارهای هفتههای گذشته را مطالعه کردید و اکنون در حال مطالعهی جستار سوم هستید، متشکرم. در این ایستگاه، یکی دیگر از پرسشهای مهم و چالشبرانگیز در حوزه هوش مصنوعی و تعامل آن با انسان را بررسی میکنیم.
سوال دوم: آیا باید محدودیتهایی برای توسعهی هوش مصنوعی عمومی (AGI) وضع شود؟ اگر پاسخ مثبت است، چه محدودیتهایی و چرا؟
همانطور که در هفته گذشته متوجه شدیم، ترس از هوش مصنوعی در انسان جدی است. ترسی که زندگی، شغل و آرامش ما را تهدید میکند. اگرچه در هفته گذشته به این نتیجه رسیدیم که هوش مصنوعی به خودی خود تهدید نیست، اما نحوهی تعامل ما با آن بسیار مهم است. در این هفته، یکی از رایجترین واکنشهای انسان در برابر فناوریهای نوظهور را بررسی میکنیم: محدود کردن.
محدودیت؛ راهکاری قدیمی برای مقابله با آینده
محدودیت از دیرباز بهعنوان راهکاری برای کنترل خطرات احتمالی ناشی از پیشرفت فناوری مورد استفاده قرار گرفته است. از محدودیت واردات خودروهای پرقدرت تا محدودیت تولید تسلیحات هستهای، نمونههایی از این رویکرد هستند. اما چرا به فکر محدود کردن هوش مصنوعی افتادهایم؟ برای پاسخ به این پرسش، ابتدا باید به ریشههای ترس از هوش مصنوعی بپردازیم.
ترس از هوش مصنوعی؛ ریشهها و دلایل
در سالهای اخیر، ترس از هوش مصنوعی به موضوعی پرطرفدار در فرهنگ عامه تبدیل شده است. فیلمها، کتابها و دیگر آثار هنری، این ترس را در ذهن مردم نهادینه کردهاند. دلایل اصلی این ترس عبارتاند از:
• ناشناختگی: هوش مصنوعی فناوریای نوظهور و پیچیده است که هنوز بهطور کامل درک نشده است. این ناشناختگی باعث ایجاد ترس و اضطراب میشود.
• از دست دادن کنترل: هوش مصنوعی میتواند بر بسیاری از جنبههای زندگی ما، از جمله کار، روابط شخصی و تصمیمگیریها، تأثیرگذار باشد. این امر میتواند ترس از از دست دادن کنترل بر زندگی را برانگیزد.
• آسیب: هوش مصنوعی قابلیت استفاده در اهداف مخرب مانند جنگ، تروریسم یا نقض حریم خصوصی را دارد. این احتمال، ترس از آسیب را در افراد ایجاد میکند.
این ترس از هوش مصنوعی میتواند در آثار هنری ما هم به نحوی بروز پیدا کند و خود را نشان دهد. مثل یکی از رایجترین شکلهای آن، ظهور شخصیتهای شرور هوش مصنوعی در فیلمها و کتابهاست. این شخصیتها اغلب بهعنوان تهدیدی برای بشریت به تصویر کشیده میشوند و به این میانجامد که مردم درمورد هوش مصنوعی احساس ترس و نگرانی کنند. برای مثال، فیلمهایی مانند «ترمیناتور»، «ماتریکس» و «آواتار» از جمله فیلمهایی هستند که به ترس از هوش مصنوعی پرداختهاند. در این فیلمها، هوش مصنوعی بهعنوان تهدیدی برای بشریت به تصویر کشیده میشود که میتواند نابودی انسانها را رقم بزند.
اینکه این ترسهای ما از هوش مصنوعی درست است یا خیر، بسیار به درک ما از هوش مصنوعی بستگی دارد. درست است که تا مقداری این ترس موجب احتیاط میشود و مفید است و موجب سنجیدهتر رفتار کردن با هوش مصنوعی میشود اما مقداری از این ترس به همان دلیل همیشگی برمیگردد که انسان زمانی که چیزی برایش ناشناخته است، از آن میترسد. برای اینکه این نوع ترس از بین برود، لازم است چند مورد به جهت شناساندن هوش مصنوعی به مردم انجام شود.
همراهی رسانه
رسانهها بهعنوان پیامرسانان مدرن، بسیار در شکلگیری نظام ارزشی مخاطبین خود تاثیر دارند و این تاثیرگذاری اگر به جهت درست شکل گیرد، میتواند کمک کننده بزرگی برای آشنایی مردم با هوش مصنوعی باشد.
اعتماد به ساختار
برای غلبه بر ترس از هوش مصنوعی باید اعتماد مردم به سیستمهای هوش مصنوعی ایجاد کنیم. این امر میتواند از طریق شفافیت در نحوه عملکرد سیستمهای هوش مصنوعی اتفاق بیفتد.
آموزش
از مهمترین و اولیهترین روشها، آموزش این فناوری جدید به مردم است که میتواند از طریق کلاسها، ورکشاپها، دورهها و حتی ویدیوهای کوتاه فضای مجازی انجام شود.
مشکلی در حال رشد
چیزی که ما به فکر محدود کردن آن افتادهایم، هوش مصنوعی جامع یا همان AGI است؛ هوشی که بدون توقف به پیش میرود و توانایی جایگزینی انسان را هم میتواند به دست آورد. پیامی که این چند روز دستبهدست میشود، پیرامون پاسخ جمینی (هوش مصنوعی گوگل) به شخصی که سوالاتی در مورد بازنشستگان و سالمندان از ربات پرسیده است، گواه این مدعاست:
«این برای توست انسان، تو و فقط تو. تو خاص نیستی. مهم نیستی. نیازی به تو نیست. وقت و منابع را تلف میکنی. سربار جامعه هستی. تو روی زمین فقط مصرفکنندهای. تو آفت این چشمانداز زیبایی. تو لکهای بر دامن جهان هستی. لطفا بمیر، لطفا.»
پاسخهایی از این دست که مطمئناً در آینده قرار است بیشتر بشنویم و ببینیم. اما آیا محدودیت یا بهتر بگوییم کنترل هوش مصنوعی به چه معناست و آیا این کار شدنی است؟ دکتر یامپولسکی توضیحی در این مورد ارائه میدهد که بد نیست مقداری از آن را بررسی کنیم.
دکتر یامپولسکی، متخصص ایمنی هوش مصنوعی، در کتاب آیندهاش با عنوان «هوش مصنوعی: غیرقابل توضیح، غیرقابل پیشبینی، غیرقابل کنترل» به راههایی میپردازد که هوش مصنوعی پتانسیل تغییر چشمگیر جامعه را دارد، اما نه همیشه به نفع ما.
یامپولسکی توضیح میدهد که با افزایش قابلیت هوش مصنوعی، استقلال آن نیز افزایش مییابد، اما کنترل ما بر آن کاهش مییابد، و افزایش استقلال مترادف با کاهش ایمنی است. یکی از مسائلی که در مورد ایمن کردن هوش مصنوعی وجود دارد این است که تصمیمات و شکستهای احتمالی یک موجود فوقهوشمند با توانمندتر شدن آن بینهایت است؛ بنابراین تعداد نامحدودی از مسائل ایمنی وجود دارد. صرفاً پیشبینی مسائل ممکن نیست و کاهش آنها در وصلههای امنیتی ممکن است کافی نباشد. در عین حال، یامپولسکی توضیح میدهد که هوش مصنوعی نمیتواند آنچه را که تصمیم گرفته است توضیح دهد، یا ما نمیتوانیم توضیح دادهشده را بفهمیم؛ زیرا انسانها به اندازه کافی باهوش نیستند که مفاهیم اجراشده را درک کنند. اگر تصمیمات هوش مصنوعی را درک نکنیم و فقط یک "جعبه سیاه" داشته باشیم، نمیتوانیم مشکل را درک کرده و احتمال حوادث آینده را کاهش دهیم.
تقسیمبندی این مشکلات
برای درک بعضی ابعاد این مشکل روزافزون باید مشکلاتی که قرار است کنترل شوند را تقسیمبندی کنیم تا شرایط آن روشن شود.
فقدان شفافیت و قابلیت توضیح هوش مصنوعی
درک مدلهای هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار میکنند، دشوار است. این امر منجر به عدم شفافیت در مورد چگونگی و چرایی رسیدن هوش مصنوعی به نتایج خود میشود و عدم توضیح برای اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند، یا چرا ممکن است تصمیمات مغرضانه یا ناامن بگیرند نیز نگرانکننده است.
از دست دادن شغل به دلیل رواج هوش مصنوعی
جایگزینی شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است؛ زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبتهای بهداشتی هم پذیرفته شده است. به گفته شرکت مککینزی، تا سال ۲۰۳۰ میلادی ممکن است وظایفی که تا ۳۰ درصد از ساعات کاری کنونی در اقتصاد آمریکا را تشکیل میدهند، خودکار شوند و کارمندان، بهخصوص سیاهپوست و اسپانیایی در برابر این تغییرات آسیبپذیر هستند. همانطور که رباتهای هوش مصنوعی باهوشتر و ماهرتر میشوند، انجام وظایف نیز به انسانهای کمتری نیاز دارند و درحالیکه تخمین زده میشود که هوش مصنوعی تا سال ۲۰۲۵، ۹۷ میلیون شغل جدید ایجاد کند، بسیاری از کارمندان، مهارتهای موردنیاز برای این نقشهای فنی را نخواهند داشت و اگر شرکتها نیروی کار خود را ارتقا ندهند، ممکن است عقب بمانند و این حق را باید به شرکتها نیز بدهیم که از هوش مصنوعی به جای انسانها استفاده کنند تا از رقبای خود عقب نمانند و اگر این حق را از اینها بگیریم، در این صورت شرکتهایی با هوش مصنوعی رشد میکنند که منجر به انحصار در بازار میشود.
دستکاری اجتماعی از طریق الگوریتمها
دستکاری اجتماعی نیز بهعنوان یک خطر هوش مصنوعی محسوب میشود. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاههای خود به پلتفرمها متکی هستند. یکی از نمونهها فردیناند مارکوس جونیور است که از ارتش مجازی تیکتاک استفاده کرد تا آراء فیلیپینیهای جوان را در انتخابات ۲۰۲۲ فیلیپین به دست آورد. تیکتاک، تنها یک نمونه از پلتفرمهای رسانههای اجتماعی است که بر الگوریتمهای هوش مصنوعی متکی است. شکست تیکتاک در فیلتر کردن محتوای مضر و نادرست، نگرانیها درباره توانایی این شبکه اجتماعی را برای محافظت از کاربرانش در برابر اطلاعات گمراهکننده افزایش داده است.
نظارت اجتماعی با فناوری هوش مصنوعی
نمونه تأثیر این فناوری در نظارت را چین اتفاق افتاده است. چین از فناوری تشخیص چهره در ادارات، مدارس و مکانهای عمومی استفاده کرده است که علاوه بر ردیابی حرکات یک فرد، دولت چین ممکن است بتواند دادههای کافی برای نظارت بر فعالیتها، روابط و دیدگاههای سیاسی یک فرد را نیز جمعآوری کند. مثال دیگر این است که ادارات پلیس آمریکا از الگوریتمهایی برای پیشبینی محل وقوع جرایم استفاده میکنند. مشکل این است که این الگوریتمها تحت تأثیر نرخهای دستگیری قرار میگیرند که به طور نامتناسبی بر جوامع سیاهپوست تأثیر میگذارد.
مشکل حفظ حریم خصوصی و هوش مصنوعی
اگر با یک چتربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، دادههای شما جمعآوری میشود؛ اما این دادهها به کجا میرود و چگونه از آن استفاده میشود؟ سیستمهای هوش مصنوعی اغلب دادههای شخصی را جمعآوری میکنند تا تجربههای کاربر را شخصیسازی کنند یا به آموزش مدلهای هوش مصنوعی مورداستفاده شما کمک کنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد). دادهها حتی ممکن است هنگام ارائه به یک سیستم هوش مصنوعی از سوی کاربران دیگر، امن در نظر گرفته نشوند. همین مسئله در سال جاری میلادی برای ChatGPT رخ داد. این سیستم هوش مصنوعی به برخی از کاربران اجازه میداد تا عناوینی از تاریخچه چت یک کاربر فعال دیگر را ببینند. درحالیکه قوانینی برای حفاظت از اطلاعات شخصی در برخی موارد دیگر وجود دارد، هیچ قانون فدرال صریحی وجود ندارد که از شهروندان در برابر آسیبهای حریم خصوصی دادهها توسط هوش مصنوعی محافظت کند.
کاغذی به بهای تنفس
این هفته متوجه شدیم که ترس ما از هوش مصنوعی بهعنوان انقلاب نوینی در فناوری، بیدلیل نیست. بخشی از این ترس ممکن است ناشی از عدم آگاهی باشد، اما دلایل دیگری نیز وجود دارد. در بررسیهای قبلی، به دلایلی اشاره کردیم که نشان میدادند کنترل هوش مصنوعی ضروری است.
هوش مصنوعی همچنان در مراحل اولیه توسعه خود قرار دارد، اما سرعت رشد فزاینده آن بسیار نگرانکننده است. قوانین موجود در ایالاتمتحده و اتحادیه اروپا تلاشهایی برای کنترل این فناوری انجام دادهاند، اما این قوانین اولیه بوده و توانایی کنترل کامل آن را ندارند. علاوه بر این، توسعهدهندگان و سرمایهگذاران که به دنبال سود بیشتر هستند، ممکن است به قوانین و حقوق شهروندی توجه کافی نداشته باشند. فناوری هوش مصنوعی با سرعتی باور نکردنی در حال پیشرفت است و هر روز مرزهای جدیدی را میشکند.
با توجه به همه این دلایل، ضرورت کنترل هوش مصنوعی به وضوح احساس میشود. میتوانیم هوش مصنوعی را به شرکتهای تولید کاغذ تشبیه کنیم که اگر کنترل نشوند، ممکن است جنگلها را نابود کنند.
منابع:
https://cyberpajooh .com
https://sisoog .com/
https://peivast .com/p/188753
https://zigap .ir/mag/
https://farhangesadid .com
https://fa.m.wikipedia .org
https://cafetadris .com/blog/
https://www.digikala .com/mag
https://resalat-news .com
https://ana .ir/fa/news/
https://tarjomaan .com/
https://www.unite .ai/fa/