دستیارهای هوشمندی مثل Siri اپل، هوش مصنوعی را به زندگی ما وارد کردند. اما این هوش مصنوعی که تقلیدی از هوش و رفتارهای انسانی است تا چه حد میتواند زندگی بهتری برای بشر ایجاد کند؟
از مقالهای که فیلسوف بزرگ هایدگر درباره تکنولوژی نوشته است تا کتابها و فیلمهای علمی-تخیلی و حتی همین الان و در میان گفتگوهای میان دانشمندان و علاقمندان تکنولوژی این انتقاد همیشه مطرح بوده است که تکنولوژی چه سویههای منفی دارد و چطور ممکن است زندگی انسان را با آسیبها و خطرات جدید روبرو کند. حالا در یک تحقیق جدید سوگیری نژادپرستانه هوش مصنوعی این انتقادها را پر رنگتر کرده و ضرورت توجه به آن را گوشزد میکند.
بر اساس تحقیقات بولاموینی، سه برنامه تحلیلی صورت تجاری منتشر شده از شرکتهای بزرگ فناوری آمریکایی، سوگیریهایی نسبت به نوع پوست و جنسیت را نشان میدهند. بر اساس مقالهای که در MIT News منتشر شد، نتایج تحقیقاتش این بود که درصد خطا در تعیین جنسیت مردان با پوست روشن، از 0.8٪ بیشتر نیست. اما این عدد در یکی از سه برنامه به بیش از 20٪ میرسد و در دو مورد دیگر برای زنان با پوست تیرهتر به ۳۴ درصد میرسد. محققان یک شرکت فناوری بزرگ ادعا کردند که سیستم تشخیص چهره آنها بیش از ۹۷ درصد دقیق است. بااینحال، مشخص شد که شرکتکنندگانی که بهعنوان مجموعهداده برای آزمایش سیستم فوقالذکر انتخاب شدهاند، شامل یک نمونه نامتعادل و ناهمگن، با تعداد مردان بیشتر از زنان، همچنین بیشتر و صرفاً از یک قومیت خاص است تا قومیتهای دیگر.
همانطور که میدانید هوش مصنوعی در اجرای قانون نیز استفاده میشود که بهAlgocracy معروف است. در ایالات متحده، مقامات از هوش مصنوعی برای پیشبینی میزان تکرار جرم استفاده کردهاند که احتمال ارتکاب مجدد همان جرم جنایی توسط یک مجرم را در نظر میگیرد. یکی از این نرمافزارهای مورداستفاده برای هدف ذکر شده (COMPAS) نام دارد.اما مشخص شد که COMPAS عملکردی مغرضانه دارد چرا که نرخ بالایی در ارائه آمار تکرار جرم برای افراد سیاهپوست دارد و متأسفانه این تبعیض نژادی در برابر قانون و دادگاه عدالت، جایی که همه چیز باید حول محور انصاف و درستی بچرخد، فقط نام عدالت را تضعیف میکند.
جنسیتگرایی هوش مصنوعی از آمریکا تا چین
اما این موضوع فقط در ایالات متحده وجود ندارد! در چین، گزارشی توسط، یک بنیاد رفاه عمومی مستقر در شانگهای و زنان سازمان ملل منتشر شد که تبعیض جنسی سامانمند، بهویژه علیه زنان، در موتورهای جستجوی شرکتهای فناوری بزرگ چینی مانند Baidu، Sogou و 360 را نشان داد. کلماتی مانند مدیرعامل '، 'مهندس' یا 'دانشمند' بیشتر تصاویر مردان را نشان میداد، درحالیکه جستجوی کلمات کلیدی مانند 'زن' یا 'زنانه' اغلب مطالب مستهجن و اطلاعات جنسی مرتبط با زنان را نشان میداد!
بهاینترتیب، مسائل اجتماعی که در حال حاضر جوامع ما را تحتتأثیر قرار میدهد، ممکن است با استفاده از هوش مصنوعی تداوم یابد، اول از همه به این دلیل که هوش مصنوعی تقلیدی از رفتار و تفکر انسان است که به طرزی باورنکردنی همچنان رفتارهای و نگرشهای جنسیتزده و نژادپرستانه داد، بنابراین اگر سوگیری جنسیتی و نوع پوست در هوش مصنوعی موردتوجه قرار نگیرد و حل نشود، میتواند بر درک آنها تأثیر گذاشته و باعث بروز مشکلات بزرگی شود.
چطور هوش مصنوعی بدون تبعیض داشته باشیم
هوش مصنوعی را انسانها توسعه میدهند، مادامیکه انسانها نگرشی برابر به افراد با جنسیتها و نژادهای مختلف نداشته باشند به هوش مصنوعی نیز این نگرش را میآموزند که همه نژادها و جنسیتها جایگاه برابری ندارند.
هوش مصنوعی از دادهها تغذیه میشود و مادامیکه دادهها در وبسایتها و دیتاستها تبعیضآمیز باشد هوش مصنوعی نیز رفتار تبعیضآمیزی از خود نشان خواهد داد.
برای آنکه هوش مصنوعی نتایج تبعیضآمیزی نداشته باشد لازم است که افرادی که این فناوری را توسعه میدهند نگرش تبعیضآمیزی نداشته باشند.