موارد سوگیری در هوش مصنوعی

منتشر شده در analyticsinsight به تاریخ ۲۱ جولای ۲۰۲۲
لینک منبع BIAS CASES IN ARTIFICIAL INTELLIGENCE

هر روز افراد و شرکت‌های بیشتری به هوش مصنوعی علاقه‌مند می‌شوند چون مزایای آن را در کاربردهای مختلف می‌بینند.

سوگیری هوش مصنوعی (AI bias) یک ناهنجاری در نتایج الگوریتم‌های یادگیری است که ناشی از مفروضات مغرضانه در مرحله توسعه الگوریتم یا داده‌های آموزشی مغرضانه است.

در اینجا ۳ مورد بایاس در هوش مصنوعی آورده شده‌است:

تعصب در تبلیغات فیس‌بوک

نمونه‌های بسیاری از تعصب انسانی وجود دارد، و ما آن را در پلتفرم‌های فن‌آوری مشاهده می‌کنیم. این سوگیری‌ها منجر به مدل‌های یادگیری ماشینی مغرضانه می‌شوند، زیرا داده‌های پلتفرم‌های فناوری بعداً برای آموزش آنها مورد استفاده قرار می‌گیرند.

فیس بوک در سال ۲۰۱۹ به تبلیغ کنندگان اجازه داد تا تبلیغات را براساس نژاد، جنسیت و مذهب هدف قرار دهند. به عنوان مثال، به زنان در تبلیغات استخدام برای مشاغل پرستاری یا منشیگری اولویت داده می‌شد، در حالی که تبلیغات شغلی برای سرایداران و رانندگان تاکسی اغلب به مردان، به ویژه آن‌هایی که دارای پیشینه اقلیت بودند، نمایش داده می‌شد.

در نتیجه، فیسبوک دیگر به کسب‌و‌کارها اجازه نمی‌دهد که تبلیغات خود را براساس سن، جنسیت یا نژاد تنظیم کنند.

ابزار استخدام مغرضانه آمازون

در سال ۲۰۱۴، آمازون شروع به کار بر روی فن‌آوری هوش مصنوعی کرد تا روند استخدام را ساده کند. تحقیقات آن‌ها در درجه اول بر روی گزینش رزومه‌ها و ارزیابی نامزدها با استفاده از الگوریتم‌های هوش مصنوعی، و صرفه‌جویی در وقت استخدام‌کننده‌ها از فعالیت‌های گزینش رزومه های دستی متمرکز بود. با این حال، آمازون در سال ۲۰۱۵ متوجه شد که الگوریتم جدید استخدام هوش مصنوعی در برابر زنان مغرضانه عمل می‌کند و به طور عینی به نامزدها نمره نمی‌دهد.

آمازون مدل هوش مصنوعی خود را با استفاده از داده‌های تاریخی ده سال پیش آموزش داده بود. \از آنجا که مردان در زمینه فن‌آوری اطلاعات برتری داشتند و ۶۰٪ نیروی کار آمازون را تشکیل می‌دادند، داده‌های تاریخی بر علیه زنان تعصب داشتند. در نتیجه، نرم‌افزار استخدام آمازون به اشتباه متوجه شد که نامزدهای مرد ترجیح داده می‌شوند. اصطلاح «زنان»، مانند «کاپیتان باشگاه شطرنج زنان»، در رزومه ها مجازات شد. در نتیجه، آمازون از اعمال این الگوریتم برای استخدام دست کشید.

تبعیض نژادی در الگوریتم ریسک مراقبت‌های بهداشتی

بیش از ۲۰۰ میلیون آمریکایی از یک سیستم پیش‌بینی خطر سلامت استفاده می‌کنند، اما این سیستم تبعیض نژادی را نشان می‌دهد، زیرا یک معیار ناقص را برای ارزیابی نیاز به کار گرفته‌است.

این الگوریتم برای شناسایی بیمارانی ایجاد شد که احتمالا از توجه پزشکی بیشتر سود می‌بردند؛ با این حال، بعدها کشف شد که این برنامه یافته‌های نادرستی ارائه می‌دهد که بیماران سفیدپوست را بر بیماران سیاه‌پوست ترجیح می‌دهد.

سازندگان الگوریتم هزینه‌های پزشکی بیماران قبلی را جایگزین نیازهای پزشکی واقعی کردند. از آنجایی که ثروت و نژاد معیارهایی هستند که به شدت مرتبط هستند، این تفسیر ضعیفی از اطلاعات تاریخی بود، زیرا الگوریتم زمانی که مفروضات تنها بر اساس یک جزء از معیارهای مرتبط بود، یافته‌های نادرستی ایجاد کرد.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.