اخیرا مطلبی رو میخوندم راجع به موضوع «تشخیص چهره». توی مقدمهی این مطلب دربارهی «کاربردها و فوائد» این تکنولوژی صحبت شده بود و یکی از مثالهاش این بود: «پلیس چین با کمک ابزارهای تشخیص چهره توانسته یک مجرم حرفهای را در میان یک کنسرت پاپ دستگیر کند.»
هر چند این مورد، مثال خوبیه از کارکردهای مثبت تکنولوژی، اما برعکس، توجه منو به ابعاد منفی این تکنولوژی جلب کرد. چون دولت چین همزمان با همین تکنولوژی داره فعالیتهای مسلمانان اویغور رو نظارت میکنه و اونها رو تحت فشار قرار میده. بنابراین ما باید جنبهها و اثرات منفی تکنولوژیها رو هم بشناسیم و همین باعث شد وقتی رو اختصاص بدم و راجع به تبعات منفی تکنولوژی بر جامعه و مخصوصا اثرات اخلاقیش مطالعه کنم.
طبیعتا همه ما دوست داریم که هوش مصنوعی و سایر تکنولوژیها، دنیا رو برای ما جای راحتتر و امنتری کنه. افزایش بازدهی رفت و آمد و حمل و نقل، کمک به تشخیص بیماریها، بهبود ترجمه و ارتباطات و ... مثالهای ملموسی هستند از اینکه هوش مصنوعی چقدر تا حالا فایده داشته و یا خواهد داشت. اما با این وجود، تبعات و جنبههای منفی گستردهای هم میتونه داشته باشه که میخایم چند تاشون رو با هم مرور کنیم:
۱. بیکاری
اولین و واضحترین پیامد اتوماسیون، از کار بیکار کردن آدمهاست. و هوش مصنوعی در حال حاضر متهم ردیف اول این ماجراست. اگر ماشین سنگینها در آینده هوشمند یا اصطلاحا «خودران» بشند (همونطور که ایلان ماسک در نظر داره)، چه تعداد شغل در همین ایران خودمون از بین خواهد رفت؟ (خیلی! ما در سال 1391 نزدیک به 600 هزار رانندهی کامیون باری و 200 هزار رانندهی اتوبوس (در ایران) داشتهایم و اینها بخش مهمی از بازار کار رو تشکیل میدن)
البته از اون طرف قضیه به این عددها نگاه کنید: طبق آماری که مربوط به سال 1377 هست:
«بیش از 30 درصد کشتههای جادهای کشور (معادل 8000 نفر در سال) مربوط به تصادفات کامیونهاست و تعداد کشتههای تصادفات کامیونها به ازای هر 1000 خودرو سنگین در کشور 14.9 نفر میباشد.»
این آمار بسیار فاجعهبار و دردناکه و اگر فرض کنیم این فناوری، منجر به کاهش خطاهای انسانی و تصادفات جادهای میشه بایستی اون رو اوجب واجبات دونست، حتی مهمتر از نان شب رانندهها!
۲. نابرابری و اختلاف طبقاتی
جدای از بیکاری، کاهش وابستگی صنایع به نیروی انسانی به دلیل اتوماسیون، باعث میشه رقابت بین کارگرها بیشتر بشه و در نتیجه درآمد کارگر کاهش پیدا کنه یا حداقل رشد نکنه. در مجموع اگر نگاه کنیم، میبینیم سود صنایع بیشتر به جیب سرمایهدار ریخته میشه و شکاف طبقاتی افزایش پیدا میکنه.
همین الان استارت آپها در زمینههای مختلف از جمله هوش مصنوعی، بخشهای قابل توجهی از بازار رو قبضه کردند و سهم صنایع و بیزینسهای دیگه رو کوچیک و کوچیکتر میکنن.
۳. تاثیر روی اخلاق و سبک زندگی آدمها
یکی از پیامدهای منفی فناوری که البته ما خیلی بهش حساس نیستیم، تاثیراتش بر روی رفتار و اخلاق آدمهاست. همونقدر که فناوری، رفاه رو برای ما به ارمغان میاره، «انتظارات» ما رو از محیطمون افزایش میده. و ما رو به انسانهایی کم حوصله و با درک متقابل پایین، تبدیل میکنه.
مثلا همونطور که ظهور پدیدهی شبکههای اجتماعی، بهویژه «فیسبوک» باعث افزایش معنیدار تعداد طلاق زوجها شده، چتباتها و حتی سکسباتها میتونن چالش جدیدی پیش روی انسانها بگذارند. چه کسی یک رابطهی (عاطفی/جنسی) بی نقص و البته بدون تعهد با یک ربات رو با یک رابطهی انسانی عوض خواهد کرد؟
۴. حماقت مصنوعی! (ترجمهی artificial stupidity)
یکی از چالشهای اصلی سیستمهای یادگیری ماشین مثل شبکههای عمیق، اینه که ممکنه اونها به راحتی گول بخورند. مثلا یک سیستم هوش مصنوعی ممکنه یک تصویر با تعدادی نقطهی سیاه رو به عنوان تصویر یک انسان تشخیص بده. این مشکل از اونجا ناشی میشه که این سیستمها قبلا چنین ورودی هایی رو هیچوقت تجربه نکردند و برای حالات بسیار ساده و احمقانه آماده نشدن. حالا فرض کنید چنین سیستم هوشمندی! چطور میتونه یک وظیفه حساس و مهم، مثل امنیت جان انسانها رو بر عهده بگیره. بنابراین ما نباید سیستمهای هوش مصنوعی رو بدون مطمئن شدن از باگ ها و حماقت هاشون، قدرت ببخشیم.
۵. رباتهای نژادپرست
یکی از ویژگی سیستمٰهای هوشمند نسل جدید اینه که به شدت مبتنی بر «داده»اند. یعنی برخلاف سیستمهای سنتی مثل «سیستمهای خبره» فرضیات انسانی در این سیستمها حداقل شده و فقط این دادهها اند که فرضیات و مدل سیستم رو میسازند. حالا اگر این داده ها خودشون حاوی بایاس باشند، نتایجی که ارائه میدند خالی از بایاس و تبعیض نیست. مثلا فرض کنید سیستم هوشمند طراحی کردیم که از بین لیست تمام متقاضیان برای یک شغل، افراد شایسته رو انتخاب میکنه و پیشنهاد میده. حالا اگر دادههای خورانده شده به این سیستم دارای توزیعی باشند که مثلا متقاضیان اصفهانی رو به کرمانشاهیها ارجحیت میده! این سیستم ممکنه توی نتایجش دچار نوعی از نژادپرستی بشه و شانس یکسانی رو به دو قومیت مختلف اختصاص نده!
۶. تهدیدهای امنیتی
هر قدر یک تکنولوژی قویتر میشه، بیشتر ممکنه ابزاری بشه برای مقاصد غیرانسانی و جنگی. همین الان یک رقابت تسلیحاتی در دنیا بوجود اومده بر سر توسعهی رباتهای پرنده برای اهداف خرابکارانه. این موضوع میتونه خطرات زیادی رو برای بشریت به همراه داشته باشه. صرفنظر اینکه این فناوری به کمک جبههی حق خواهد اومد یا جبههی باطل، توسعهی سلاح چیزی جز کشته شدن بیشتر انسانها رو به همراه نداره.
۷. ترمیناتورها
تسلیحات مبتنی بر هوش مصنوعی نه تنها میتونه توسط انسانها مورد استفاده قرار بگیره، بلکه ممکنه خود ماشینها باشند که امنیت انسانها رو هدف قرار بدند. هر چند خطر حمله ماشین به انسانها فعلا در حد فیلمهای هالیوودی مثل ترمیناتوره; اما ما همچنین با خطرهای دیگهای مواجهیم که ممکنه حاصل خطا و باگهای یک سیستم باشه که اون رو به یک تهدید بزرگ تبدیل کنه.
سیستمی هوشمندی رو فرض کنید که برای ریشه کن کردن سرطان طراحی شده، اما در عوض بیمارهای سرطانی رو بکشه! چون از نظر سیستم، این یک راه بدیهی برای ریشه کن کردن سرطانه. و طراحانش چنین چیز رو در نظر نگرفته باشند.
*۸. سینگولاریتی
هر چند راجع به این موضوع بعدا به تفصیل خواهم نوشت! اما بطور خلاصه موضوع اینه که از زمان پیدایش هوش مصنوعی و البته عمدتا به دلیل رویاپردازی دانشمندها، برخیها معتقدند که روزی میرسه که ماشینها به لحاظ هوشمندی از انسانها جلو میزنند و میتونن جهان و تمام انسانها رو به کنترل خودشون در بیارن.
همونطور که انسان، اشرف مخلوقات شده و تونسته تموم حیوانات رو به تسلیم خودش دربیاره، ماشینها هم ممکنه روزی با ما همین کار رو بکنند!
۹. حقوق رباتها
آیا ما حق داریم رباتها رو بکشیم؟ ممکنه سوال مسخرهای به نظر برسه، مثلا شما چرا نباید بتونید گوشی موبایلتون رو دور بندازید و یک گوشی جدید بخرید؟ اما در آینده ای که ماشینها قادر به دیدن، حس کردن و رفتار کردن هستند، آیا این اخلاقیه که ما یک ماشین رو متوقف کنیم و زندگیش رو بگیریم؟ اگر این موضوع برای شما خندهدار به نظر میرسه، حتما فیلم «هوش مصنوعی» اثر استیون اسپیلبرگ رو ببینید تا شما هم با این چالش اخلاقی روبرو بشید که «آیا باید حقوق رباتها رو رعایت کرد؟»
برگرفته از مقاله World Economic Forum
bit.ly/33n3K4b
جواد امیریان