من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
موارد سوگیری در هوش مصنوعی
منتشر شده در analyticsinsight به تاریخ ۲۱ جولای ۲۰۲۲
لینک منبع BIAS CASES IN ARTIFICIAL INTELLIGENCE
هر روز افراد و شرکتهای بیشتری به هوش مصنوعی علاقهمند میشوند چون مزایای آن را در کاربردهای مختلف میبینند.
سوگیری هوش مصنوعی (AI bias) یک ناهنجاری در نتایج الگوریتمهای یادگیری است که ناشی از مفروضات مغرضانه در مرحله توسعه الگوریتم یا دادههای آموزشی مغرضانه است.
در اینجا ۳ مورد بایاس در هوش مصنوعی آورده شدهاست:
تعصب در تبلیغات فیسبوک
نمونههای بسیاری از تعصب انسانی وجود دارد، و ما آن را در پلتفرمهای فنآوری مشاهده میکنیم. این سوگیریها منجر به مدلهای یادگیری ماشینی مغرضانه میشوند، زیرا دادههای پلتفرمهای فناوری بعداً برای آموزش آنها مورد استفاده قرار میگیرند.
فیس بوک در سال ۲۰۱۹ به تبلیغ کنندگان اجازه داد تا تبلیغات را براساس نژاد، جنسیت و مذهب هدف قرار دهند. به عنوان مثال، به زنان در تبلیغات استخدام برای مشاغل پرستاری یا منشیگری اولویت داده میشد، در حالی که تبلیغات شغلی برای سرایداران و رانندگان تاکسی اغلب به مردان، به ویژه آنهایی که دارای پیشینه اقلیت بودند، نمایش داده میشد.
در نتیجه، فیسبوک دیگر به کسبوکارها اجازه نمیدهد که تبلیغات خود را براساس سن، جنسیت یا نژاد تنظیم کنند.
ابزار استخدام مغرضانه آمازون
در سال ۲۰۱۴، آمازون شروع به کار بر روی فنآوری هوش مصنوعی کرد تا روند استخدام را ساده کند. تحقیقات آنها در درجه اول بر روی گزینش رزومهها و ارزیابی نامزدها با استفاده از الگوریتمهای هوش مصنوعی، و صرفهجویی در وقت استخدامکنندهها از فعالیتهای گزینش رزومه های دستی متمرکز بود. با این حال، آمازون در سال ۲۰۱۵ متوجه شد که الگوریتم جدید استخدام هوش مصنوعی در برابر زنان مغرضانه عمل میکند و به طور عینی به نامزدها نمره نمیدهد.
آمازون مدل هوش مصنوعی خود را با استفاده از دادههای تاریخی ده سال پیش آموزش داده بود. \از آنجا که مردان در زمینه فنآوری اطلاعات برتری داشتند و ۶۰٪ نیروی کار آمازون را تشکیل میدادند، دادههای تاریخی بر علیه زنان تعصب داشتند. در نتیجه، نرمافزار استخدام آمازون به اشتباه متوجه شد که نامزدهای مرد ترجیح داده میشوند. اصطلاح «زنان»، مانند «کاپیتان باشگاه شطرنج زنان»، در رزومه ها مجازات شد. در نتیجه، آمازون از اعمال این الگوریتم برای استخدام دست کشید.
تبعیض نژادی در الگوریتم ریسک مراقبتهای بهداشتی
بیش از ۲۰۰ میلیون آمریکایی از یک سیستم پیشبینی خطر سلامت استفاده میکنند، اما این سیستم تبعیض نژادی را نشان میدهد، زیرا یک معیار ناقص را برای ارزیابی نیاز به کار گرفتهاست.
این الگوریتم برای شناسایی بیمارانی ایجاد شد که احتمالا از توجه پزشکی بیشتر سود میبردند؛ با این حال، بعدها کشف شد که این برنامه یافتههای نادرستی ارائه میدهد که بیماران سفیدپوست را بر بیماران سیاهپوست ترجیح میدهد.
سازندگان الگوریتم هزینههای پزشکی بیماران قبلی را جایگزین نیازهای پزشکی واقعی کردند. از آنجایی که ثروت و نژاد معیارهایی هستند که به شدت مرتبط هستند، این تفسیر ضعیفی از اطلاعات تاریخی بود، زیرا الگوریتم زمانی که مفروضات تنها بر اساس یک جزء از معیارهای مرتبط بود، یافتههای نادرستی ایجاد کرد.
این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
تنهایی در جوانان میتواند سلامت روانی را در طولانیمدت تحتتاثیر قرار دهد
مطلبی دیگر از این انتشارات
شیوع کرونا، آزمونی برای صنعت و فناوری چین
مطلبی دیگر از این انتشارات
چگونه برای داشتن ذهنی تیزهوشتر تمرین کنید؟