بسیاری از افراد برجسته مانند استیون هاوکینگ، تسلا، ایلان ماسک و بیل گیتس معتقدند که هوش مصنوعی بهطور بالقوه میتواند بسیار خطرناک باشد. ایلان ماسک در یک دوره زمانی به مقایسه هوش مصنوعی و خطرات دیکتاتور کره شمالی پرداخت. همچنین اظهار داشته است که سرعت پیشرفت هوش مصنوعی بسیار زیاد است و تا زمانی که در مواجهه با آن نباشید این سرعت را حس نخواهیدکرد. اما با این سرعت رو به رشد خطر وقوع یک اتفاق جدی در بازه زمانی 5 و نهایت ده ساله جهان را تهدید میکند. به عنوان مثال اگر هوش مصنوعی مسئول اطمینان از عملکرد شبکه برق باشد، تخریب سیستم یا هک آن توسط دشمن میتواند بزرگترین تهدید باشد.
دیگر خطرات هوش مصنوعی عبارتند از:
سلاحهای خودمختار: سلاحهای خودمختار که برای کشتن برنامهریزی شدهاند یکی از راههای ایجاد خطر AI است. همانطور که ولادمیر پوتین بیان کرد: «هوش مصنوعی آینده است؛ نه تنها برای روسیه بلکه برای همه بشریت». این فرصتهای بزرگ میتواند به تهدیدهای بزرگ بدل شود. هرکس در این حوزه رهبر شود، فرمانروای کل جهان خواهد شد.
دستکاری اجتماعی: رسانههای اجتماعی ازطریق الگوریتمهای قدرتمند خودمختار در بازاریابی هدف بسیار موثرند. آنها میدانند ما چه کسانی هستیم، چه چیزهایی را دوست داریم و در حدس زدن آنچه فکر می کنیم فوق العاده ماهرند. شایع است که Cambridge Analytica از دادههای 50میلیون کاربر فیسبوک برای نتیجه انتخابات ریاستجمهوری آمریکا و رفراندوم Brexit انگلیس استفاده است.
نقض حریم خصوصی: هوش مصنوعی با امکان ردیابی و تجزیه تحلیل تمام حرکات فردی قادر به ثبت تمام کارهای روزمره انسانها ازجمله سیگارکشیدن و مدت زمانی که شخص صرف بازیهای ویدیوئی میکند، است. این عمل نقض حریم خصوصی افراد است.
ناهماهنگی بین اهداف انسان و ماشین: شفافیت تمام اهداف و هماهنگی بین کارایی و بهرهوری بسیار دشوار است. بهعنوان مثال ممکن است هدف «رساندن یک شی در سریعترین زمان ممکن به یک مقصد» باشد و هوش مصنوعی بدون درنظرگرفتن عواقب ناگوار تنها برای تحقق آن هدف عمل کند و موجب تصادفات زنجیرهای در جاده گردد.
تبعیض: از آنجا که هوش مصنوعی اطلاعات زیادی در مورد شما دارد و قادر به ردیابی و تجزیه و تحلیل آنهاست، شخص صاحب قدرت میتواند از این اطلاعات بر علیه شما استفاده کند.
بهطور کلی هوش مصنوعی میتواند برای مسائل حقوقی، سیاسی، اجتماعی، مالی و نظارتی خطرآفرین باشد.