فریب هیاهوها را نخورید! هوش مصنوعی هنوز با چیزی که تصور داریم فاصله دارد!

در سال های اخیر و با ظهور الگوریتم های قدرتمند هوش مصنوعی مثل الگوریتم های یادگیری عمیق، افزایش توانایی پردازشی کامپیوترها و دسترسی به حجم عظیم داده ها شاهد دستاوردهای خارق العاده ای در حوزه های مختلف با استفاده از هوش مصنوعی که پیش از این شاید رسیدن به آن ها در مخیله ما نمی گنجید بوده ایم. همین مساله باعث شده است که خیل عظیمی از محققین، شرکت ها و سازمان ها روش ها و الگوریتم های هوش مصنوعی را به عنوان نوشداروی نهایی برای حل مشکلاتشان بدانند و به سمت استفاده از آن در حوزه های متنوعی بروند.

با این حال به نظر می رسد که همه سر و صدا و اشتیاق پیرامون هوش مصنوعی طبیعی و منطقی نیست و نباید به سرعت از خود بی خود بشویم و استفاده از هوش مصنوعی را دوای هر دردی بدانیم. در حقیقت هنوز افراد زیادی بر این باور هستند که ما با آنچه که هوش مصنوعی عمومی (Artificial general intelligence) تعریف می شود فاصله بسیار زیادیی داریم. طبق تعریف ویکی پدیا هم هوش مصنوعی عمومی معادل با ماشینی است که می‌تواند با موفقیت هر کار فکری‌ای را که یک انسان قادر به انجام آن باشد، اجرا می کند. . این سر و صدا و هیجان (مصنوعی) تا حد زیادی محصول تلاش های تیم های بازاریابی شرکت های بزرگی نظیر گوگل و آمازون است چون اول از همه آن ها می خواهند برخی محصولات و سرویس های خود مثل سرویس های پردازشی ابری که یکی از نیازهای محققین هوش مصنوعی هستند را تبلیغ کنند و به فروش برسانند و ثانیا می خواهند کاری کنند تا همه باور نمایند که آن ها بهترین و پیشرفته ترین شرکت دنیا هستند. علاوه بر این، خود محققین و افراد دانشگاهی هم به این مسئله دامن می زنند چون آن ها برای دریافت منابع مالی بیشتر باید نسبت به دستاوردهای خود بیش از حد اغراق کنند. به عبارت دیگر، اگر مقالات، نرم افزارها و سیستم های هوش مصنوعی را دقیق تر بررسی کنیم شاید ببینیم که اکثر آن ها در عمل آن چیزی نیستند که ادعا می شود و به طور خاص سیستم های هوش مصنوعی دارای نواقصی عملی هستند که حتی می توانند منجر به نتایج مخربی شوند. در ادامه هم ما به برخی از موارد و کاربردهای که هوش مصنوعی در آن ها شکست خورده است یا انتظاراتی که ادعا می شده است را برآورده نکرده خواهیم پرداخت.

پیش بینی جام جهانی 2018

کمتر از یک ماه از پایان جام جهانی می گذرد و همه ما احتمالا می دانیم چه تیم هایی در جام جهانی قهرمان و نایب قهرمان شده اند (اگر احیانا اطلاع ندارید تیم ملی فرانسه قهرمان، تیم ملی کرواسی نایب قهرمان و تیم ملی بلژیک هم تیم سوم جام جهانی شده اند!) . با این حال پیش از آغاز جام جهانی و در حال و هوای اغراق آمیز موجود پیرامون هوش مصنوعی سه گروه تحقیقاتی مختلف با استفاده از روش های مختلف یادگیری ماشین و دیتاست های متنوع اقدام به پیش بینی نتیجه جام جهانی و تیم های برتر جام نمودند. هر سه گروه تحقیقاتی با ترتیب های مختلفی سه تیم برتر جام جهانی را آلمان، اسپانیا و برزیل پیشبینی کردند. با این وجود همانطور که گفتیم اگر نتایج جام جهانی را دنبال کرده باشید می دانید که تیم های برتر تیم جام جهانی تیم های کاملا متفاوتی بوده اند و این گروه های تحقیقاتی همگی به صورت کامل اشتباه کرده اند.

تیم ملی ایران فراتر از پیش بینی های الگوریتم های هوش مصنوعی عمل کرد (کاریکاتور:عمر مومنی)
تیم ملی ایران فراتر از پیش بینی های الگوریتم های هوش مصنوعی عمل کرد (کاریکاتور:عمر مومنی)

نکته قابل توجه این است که این سه تیم تحقیقاتی از سه رویکرد کاملا متفاوت هوش مصنوعی برای پیشبینی تیم های برتر جام جهانی استفاده کرده اند؛ اما هر سه در پیشبینی صحیح نتیجه پایانی جام جهانی ناکام بوده اند. به طور مثال، محققین دانشگاه اینسبروک با شبیه سازی هر مسابقه و با در نظر گرفتن احتمال برد و قابلیت های هر تیم پیشبینی نهایی جام جهانی 2018 را انجام دادند. از طرفی دیگر جمعی از محققین دانشگاه فنی دورتموند، دانشگاه فنی مونیخ و دانشگاه خنت با استفاده از یک روش محبوب یادگیری ماشین به نام جنگل تصادفی و ترکیب آن با الگوریتم رتبه بندی پواسون نتایج جام جهانی را پیشبینی کردند. آن ها برای آموزش الگوریتم جنگل تصادفی خود از دیتاستی از مسابقات اخیر برگزار شده جام جهانی، به همراه ویژگی هایی نظیر نشانگرهای اقتصادی و ... استفاده کرده اند. در نهایت محققین بانک UBS سوئیس با استفاده از 10000 شبیه سازی مونت کارلو تیم های آلمان با 24 درصد، برزیل با 19.80 درصد و اسپانیا با 16.1 درصد را به عنوان تیم های برتر جام جهانی انتخاب کردند.

سیاستمداران متهم نما

آمازون یکی از 7 شرکت غول جهانی هوش مصنوعی در کنار شرکت هایی نظیر گوگل، فیسبوک، بایدو و ... است و علاوه بر این که از تیمی از بهترین محققین هوش مصنوعی دنیا بهره می برد مجموعه عظیمی از زیرساخت های پردازشی را نیز برای کاربردهای مختلف هوش مصنوعی در اختیار دارد. با این حال اخیرا اتحادیه آزادی های مدنی آمریکا (ACLU) با انجام آزمایشی یک نقص بزرگ در یکی از سیستم های هوش مصنوعی این شرکت سرشناس، که به طور خاص توسط نیروهای امتیتی و نظارتی مورد استفاده قرار می گیرد، را آشکار کرد. ACLU در این آزمایش با استفاده از API یکی از سیستم های تشخیص چهره آمازون موسوم به Rekognition ، تصویر 535 عضو کنگره آمریکا را با 25000 تصویر از دیتابیس تصاویر متهمان بازداشت شده (که اصطلاحا به این تصاویر mugshots گفته می شود) مقایسه کرد. به طور طبیعی، هیچ کدام از 535 عضو کنگره در میان این 25000 هزار متهم بازداشت شده قرار نداشتند و برای همین انتظار می رفت که سیستم تشخیص چهره هیچ کدام از اعضای کنگره را به عنوان متهم شناسایی نکند. با این حال، 28 عضو کنگره از هر دو حزب دموکرات و جمهوری خواه به اشتباه به عنوان افراد بازداشت شده موجود در این دیتاست شناسایی شدند. نکته قابل توجه و تاسف بارتر این بود که نسبت اعضای رنگین پوست کنگره که به اشتباه به عنوان متهم شناسایی شده بودند بسیار بیشتر از نسبت اعضای سفید پوست کنگره بود، به طوری که مطرح ترین کمیسیون سیاه پوستان کنگره در نامه ای اعتراض شدید خود را به جف برونز مدیر عامل آمازون اعلام کردند. این مثال به طور خاص یکی از انتقادات مهم و حیاتی برای استفاده از هوش مصنوعی را به ما نشان می دهد. بر خلاف پیشبینی جام جهانی که تقریبا هیچ اثر منفی اجتماعی بر جای نمی گذارد، در این جا هر پیشبینی اشتباه منجر به عواقب ناگواری مانند دستگیری افراد بی گناه و حتی مرگ آن ها می شود. به همین دلیل، برخی از اعضای ACLU از کنگره آمریکا درخواست کردند که با تصویب قوانینی از آثار مخرب سیستم های نظارت و تشخیص چهره جلوگیری کنند.

نمایندگان کنگره ای که توسط آمازون متهم تشخیص داده شدند.
نمایندگان کنگره ای که توسط آمازون متهم تشخیص داده شدند.

گنجشک جای قناری رنگ کردن گوگل

در انتهای سال 2017 محققین هوش مصنوعی گوگل با انتشار مقاله ای موسوم به DeepVariant ادعا کردند که با استفاده از روش های یادگیری عمیق توانسته اند که به صورت حقیقی ژنوم انسان را بازسازی کنند. این پژوهش به صورت گسترده ای مورد توجه دانشمندان و رسانه ها قرار گرفت و حتی برخی آن را با اکتشافاتی که برنده جایزه نوبل شده اند، مقایسه کردند. با این وجود پروفسور استیون سالزبورگ که یکی از اساتید سرشناس مهندسی پزشکی و علوم کامپیوتر دانشگاه جان هاپکینز است به این نکته اشاره کرد که این پژوهش در حقیقت ژنوم انسانی را بازسازی نکرده است و صرفا یک بهبود بسیار کوچک نسبت به نرم افزارهای موجود در این حوزه را ارائه کرده است.

هوش مصنوعی نژادپرست

الگوریتم های هوش مصنوعی می توانند نژادپرست باشند. یک مثال پر سر و صدای این مسئله مربوط به دوربین های نیکون است. وقتی یک عکاس از یک دوربین نیکون برای عکس گرفتن از یک فرد استفاده می کند دوربین با استفاده از یک سیستم هوش مصنوعی در صورت پلک زدن فرد به عکاس هشدار می دهد که وی پلک می زند تا عکس گرفته شده خراب نشود. با این حال مشکل دوربین های نیکون این است که اگر این فرد از نژاد آسیا شرقی باشد به صورت پیشفرض دوربین وی را در حال پلک زدن شناسایی می کند.

نتیجه گیری

در این نوشته مثال های متنوعی از کاربردهای هوش مصنوعی در حوزه های مختلف که دارای ایرادات عمده ای بودند را دیدیم. تعداد این نمونه ها بسیار فراتر از این است و ما صرفا چندتای آن ها را انتخاب کردیم. همانطور که دیدیم هر کدام از این مثال های پر از ایراد می توانند منجر به نتایج مختلفی شوند که برخی از این نتایج بسیار تاثیرگذارتر و حتی مخرب تر می توانند باشند. با این حال محققین و شرکت های هوش مصنوعی تمایل دارند که در زمینه دستاوردهای خود اغراق کنند تا هم از سرمایه های تحقیقاتی بیشتری بهره ببرند و هم نام خود را بر سر زبان بیاندازند. همین مساله باعث شده است که در یک سال اخیر به صورت خاص بر روی نحوه استفاده اخلاقی از هوش مصنوعی تمرکز شود و حوزه جدیدی به نام AI Fairness معرفی گردد. حتی برخی از افراد معتقد هستند که متخصصین حوزه هوش مصنوعی باید همانند پزشکان سوگندنامه ای مثل سوگند بقراط داشته باشند تا تعهد اخلاقی خود را برای استفاده از این علم در خدمت به انسانیت نشان دهند. هر چند که بحث اخلاقیات در فضای علمی و کسب و کار هوش مصنوعی خارج از ایران هم در فازهای اولیه رشد خود است؛ اما متاسفانه این مساله در ایران به صورت کلی نادیده گرفته شده است و نه تنها جامعه علمی بلکه جامعه کسب و کار هوش مصنوعی ایران نیز به این مساله توجهی ندارد.

نویسنده: محمد چناریان نخعی