
بهروزرسانی شده توسط برنان ویتفیلد | ۲۳ اکتبر ۲۰۲۵
خلاصه: هوش مصنوعی خطراتی از جمله از دست دادن شغل، جعل عمیق، الگوریتمهای مغرضانه، نقض حریم خصوصی، اتوماسیون سلاحها و دستکاری اجتماعی را به همراه دارد. برخی از کارشناسان و رهبران با قدرتمندتر شدن و ادغام هوش مصنوعی در زندگی روزمره، خواستار تنظیم مقررات و نظارت اخلاقی قویتر هستند.
با پیچیدهتر و گستردهتر شدن هوش مصنوعی، صداهایی که در مورد خطرات احتمالی هوش مصنوعی هشدار میدهند، بلندتر میشوند.
جفری هینتون، که به خاطر کارهای بنیادیاش در زمینه یادگیری ماشین و الگوریتمهای شبکه عصبی به عنوان "پدرخوانده هوش مصنوعی" شناخته میشود، گفت: "این چیزها میتوانند از ما باهوشتر شوند و تصمیم بگیرند که کنترل امور را به دست بگیرند و ما اکنون باید نگران چگونگی جلوگیری از این اتفاق باشیم." در سال ۲۰۲۳، هینتون سمت خود به عنوان معاون رئیس و عضو مهندسی در گوگل را ترک کرد تا بتواند «درباره خطرات هوش مصنوعی صحبت کند»، و خاطرنشان کرد که بخشی از وجودش حتی از کار زندگیاش پشیمان است.
این دانشمند مشهور کامپیوتر در نگرانیهایش تنها نیست.
ایلان ماسک، بنیانگذار تسلا و اسپیسایکس، به همراه بیش از ۱۰۰۰ رهبر فناوری دیگر، در نامهای سرگشاده در سال ۲۰۲۳ خواستار توقف آزمایشهای بزرگ هوش مصنوعی شدند و خاطرنشان کردند که این فناوری میتواند «خطرات عمیقی برای جامعه و بشریت ایجاد کند».
خطرات هوش مصنوعی
1) عدم شفافیت و قابلیت توضیح هوش مصنوعی
2) از دست دادن شغل ناشی از اتوماسیون هوش مصنوعی
3) جعل عمیق و دستکاری اجتماعی
4) . نظارت اجتماعی با فناوری هوش مصنوعی
5) نقض حریم خصوصی
6) سوگیری الگوریتمی ناشی از دادههای بد( سوگیریهای ناشی از هوش مصنوعی)
7) نابرابری اجتماعی-اقتصادی به عنوان نتیجه هوش مصنوعی
8) تضعیف اخلاق و حسن نیت به دلیل هوش مصنوعی
9) سلاحهای خودمختار مبتنی بر هوش مصنوعی
10) بحرانهای مالی ناشی از الگوریتمهای هوش مصنوعی
11) بیثباتی اقتصادی و سیاسی گستردهتر نوسانات بازار
12) از دست دادن نفوذ انسانی
13) افزایش فعالیتهای مجرمانه و خطرات ایمنی کودکان
14) آسیب روانی و اتکای بیش از حد
15) هوش مصنوعی خودآگاه غیرقابل کنترل