هوش سامان
هوش سامان
خواندن ۳ دقیقه·۲ سال پیش

هوش مصنوعی نژادپرست است؟

دستیارهای هوشمندی مثل Siri اپل، هوش مصنوعی را به زندگی ما وارد کردند. اما این هوش مصنوعی که تقلیدی از هوش و رفتارهای انسانی است تا چه حد می‌تواند زندگی بهتری برای بشر ایجاد کند؟

از مقاله‌ای که فیلسوف بزرگ هایدگر درباره تکنولوژی نوشته است تا کتاب‌ها و فیلم‌های علمی-تخیلی و حتی همین الان و در میان گفتگوهای میان دانشمندان و علاقمندان تکنولوژی این انتقاد همیشه مطرح بوده است که تکنولوژی چه سویه‌های منفی دارد و چطور ممکن است زندگی انسان را با آسیب‌ها و خطرات جدید روبرو کند. حالا در یک تحقیق جدید سوگیری نژادپرستانه هوش مصنوعی این انتقادها را پر رنگ‌تر کرده و ضرورت توجه به آن را گوشزد می‌کند.

پژوهشی که هوش مصنوعی را نژادپرست می‌داند

بر اساس تحقیقات بولاموینی، سه برنامه تحلیلی صورت تجاری منتشر شده از شرکت‌های بزرگ فناوری آمریکایی، سوگیری‌هایی نسبت به نوع پوست و جنسیت را نشان می‌دهند. بر اساس مقاله‌ای که در MIT News منتشر شد، نتایج تحقیقاتش این بود که درصد خطا در تعیین جنسیت مردان با پوست روشن، از 0.8٪ بیشتر نیست. اما این عدد در یکی از سه برنامه به بیش از 20٪ می‌رسد و در دو مورد دیگر برای زنان با پوست تیره‌تر به ۳۴ درصد می‌رسد. محققان یک شرکت فناوری بزرگ ادعا کردند که سیستم تشخیص چهره آنها بیش از ۹۷ درصد دقیق است. بااین‌حال، مشخص شد که شرکت‌کنندگانی که به‌عنوان مجموعه‌داده برای آزمایش سیستم فوق‌الذکر انتخاب شده‌اند، شامل یک نمونه نامتعادل و ناهمگن، با تعداد مردان بیشتر از زنان، همچنین بیشتر و صرفاً از یک قومیت خاص است تا قومیت‌های دیگر.

هوش مصنوعی صلاحیت اجرای قانون را دارد

همان‌طور که می‌دانید هوش مصنوعی در اجرای قانون نیز استفاده می‌شود که بهAlgocracy معروف است. در ایالات متحده، مقامات از هوش مصنوعی برای پیش‌بینی میزان تکرار جرم استفاده کرده‌اند که احتمال ارتکاب مجدد همان جرم جنایی توسط یک مجرم را در نظر می‌گیرد. یکی از این نرم‌افزارهای مورداستفاده برای هدف ذکر شده (COMPAS) نام دارد.اما مشخص شد که COMPAS عملکردی مغرضانه دارد چرا که نرخ بالایی در ارائه آمار تکرار جرم برای افراد سیاه‌پوست دارد و متأسفانه این تبعیض نژادی در برابر قانون و دادگاه عدالت، جایی که همه چیز باید حول محور انصاف و درستی بچرخد، فقط نام عدالت را تضعیف می‌کند.

جنسیت‌گرایی هوش مصنوعی از آمریکا تا چین

اما این موضوع فقط در ایالات متحده وجود ندارد! در چین، گزارشی توسط، یک بنیاد رفاه عمومی مستقر در شانگهای و زنان سازمان ملل منتشر شد که تبعیض جنسی سامانمند، به‌ویژه علیه زنان، در موتورهای جستجوی شرکت‌های فناوری بزرگ چینی مانند Baidu، Sogou و 360 را نشان داد. کلماتی مانند مدیرعامل '، 'مهندس' یا 'دانشمند' بیشتر تصاویر مردان را نشان می‌داد، درحالی‌که جستجوی کلمات کلیدی مانند 'زن' یا 'زنانه' اغلب مطالب مستهجن و اطلاعات جنسی مرتبط با زنان را نشان می‌داد!

به‌این‌ترتیب، مسائل اجتماعی که در حال حاضر جوامع ما را تحت‌تأثیر قرار می‌دهد، ممکن است با استفاده از هوش مصنوعی تداوم یابد، اول از همه به این دلیل که هوش مصنوعی تقلیدی از رفتار و تفکر انسان است که به طرزی باورنکردنی همچنان رفتارهای و نگرش‌های جنسیت‌زده و نژادپرستانه داد، بنابراین اگر سوگیری جنسیتی و نوع پوست در هوش مصنوعی موردتوجه قرار نگیرد و حل نشود، می‌تواند بر درک آنها تأثیر گذاشته و باعث بروز مشکلات بزرگی شود.

چطور هوش مصنوعی بدون تبعیض داشته باشیم

هوش مصنوعی را انسان‌ها توسعه می‌دهند، مادامیکه انسان‌ها نگرشی برابر به افراد با جنسیت‌ها و نژادهای مختلف نداشته باشند به هوش مصنوعی نیز این نگرش را می‌آموزند که همه نژادها و جنسیت‌ها جایگاه برابری ندارند.

هوش مصنوعی از داده‌ها تغذیه می‌شود و مادامیکه داده‌ها در وب‌سایت‌ها و دیتاست‌ها تبعیض‌آمیز باشد هوش مصنوعی نیز رفتار تبعیض‌آمیزی از خود نشان خواهد داد.

برای آنکه هوش مصنوعی نتایج تبعیض‌آمیزی نداشته باشد لازم است که افرادی که این فناوری را توسعه می‌دهند نگرش تبعیض‌آمیزی نداشته باشند.

هوش مصنوعی
شاید از این پست‌ها خوشتان بیاید