مجموعه دانش‌بنیان شناسا
مجموعه دانش‌بنیان شناسا
خواندن ۱۴ دقیقه·۳ سال پیش

سوگیری‌های انسانی و تاثیر آن‌ها بر مدل‌های هوش مصنوعی

تصور بسیاری از مردم این است که هنگام تصمیم‌گیری درباره‌ی موضوعات مختلف، بر اساس استدلال‌های منطقی عمل می‌کنند؛ اما در حقیقت ذهن تمام انسان‌ها، بسته به شرایط مختلف، تحت تاثیر سوگیری‌هایی است که به شدت بر روی اقدامات آن‌ها تاثیر می‌گذارد. این سوگیری‌ها در واقع یک تصور قوی و از پیش‌ ساخته‌شده از کسی یا چیزی هستند که به واسطه‌ی اطلاعاتی که «داریم» یا «نداریم» شکل گرفته‌اند.

سوگیری‌های شناختی (Cognitive Bias) افکار و اعتقادات ما را دچار اختلال می‌کنند و در نهایت منجر به اشتباهات سیستماتیک در پردازش و تفسیر ما از اطلاعات مختلف در جهان پیرامون می‌شود. گاهی اوقات این سوگیری‌ها به شکل نسبتا واضحی خودشان را نشان می‌دهند و یک شخص می‌تواند به راحتی این گرایشات را در خود یا دیگران مشاهده کند؛ اما در موارد دیگری به شکل نامحسوس بر روی افکار ما تاثیر می‌گذارند و نمی‌توان به سادگی متوجه آن‌ها شد.


چرا سوگیری در افکار ما رخ می‌دهد؟

انسان‌ها در هنگام مواجهه با یک مسئله جدید، امکان ارزیابی تمام جزئیات ممکن را ندارند. اگر فرد بخواهد قبل از تصمیم‌گیری درباره‌ی یک موضوع خاص، تمام گزینه‌های موجود را به دقت بررسی کند، تصمیم‌گیری درباره‌ی یک موضوع ساده و پیش پا افتاده نیز به شدت زمان‌بر و طاقت‌فرسا خواهد بود. به دلیل پیچیدگی‌های جهان پیرامون ما و همچنین انبوه اطلاعاتی که روزانه ما را بمباران می‌کنند، منطقی به نظر می‌رسد که فرد با تکیه بر میانبرهای ذهنی خود تصمیم بگیرد.

تکیه بر میانبرهای ذهنی منجر به شکل‌گیری سوگیری در افراد می‌شود؛ زیرا برخی از تعصبات که در ذهن انسان نهادینه شده‌اند، باعث انحراف از تصمیم یا قضاوت صحیح می‌گردند. علاوه بر این ممکن است عوامل دیگری نیز در شکل‌گیری سوگیری تاثیرگذار باشد؛ به عنوان مثال احساسات، انگیزه‌های فردی، محدودیت در توانایی ذهن برای پردازش اطلاعات و فشارهای اجتماعی عوامل دیگری هستند که باعث شکل‌گیری سوگیری می‌شوند.

ارتباط سوگیری با هوش مصنوعی

سوگیری شناختی یک مسئله‌ی روان‌شناختی است که سال‌ها توسط محققان مختلف مورد مطالعه قرار گرفته است. طی سال‌های اخیر، بسیاری از جوامع در حال بررسی این موضوع هستند که چه مقدار از این سوگیری‌ها و تعصبات انسانی وارد سیستم‌های هوش مصنوعی شده‌اند. با توجه به این که بسیاری از شرکت‌ها در حال استفاده از راهکارهای مبتنی بر هوش مصنوعی به منظور ارتقاء کیفیت خدماتشان هستند، آگاهی عمیق از این تهدیدها و تلاش برای به حداقل رساندن آن‌ها می‌تواند بسیار مفید باشد.

سوال اساسی که مطرح می‌شود این است که، علت اصلی معرفی سوگیری در سیستم‌های هوش مصنوعی چیست و چگونه می‌توان از آن جلوگیری کرد؟ در موارد متعددی، سوگیری‌ها می‌توانند به الگوریتم‌های هوش مصنوعی نفوذ کنند. سیستم‌های هوش مصنوعی با داده‌هایی آموزش داده می‌شوند که تصمیمات انسانی در آن‌ها دخیل است. اگر مواردی همچون جنسیت، قومیت، نابرابری‌های تاریخی و اجتماعی که از سوگیری ذهن انسان‌ها نشئت می‌گیرد در این داده‌ها وجود داشته باشد، الگوریتم‌های سیستم‌های هوش مصنوعی نیز به تبع آن دچار این سوگیری‌ها خواهند شد.

سوگیری در هوش مصنوعی از کجا سرچشمه می گیرد؟

ما اغلب شنیده‌ایم که کامپیوترها بی‌طرف هستند؛ اما متأسفانه این طور نیست. در مورد انسان‌ها شیوه‌ی تربیتی، تجربه‌ها و فرهنگی که در آن رشد کرده‌اند، مفروضات آن‌ها را درباره‌ی دنیای اطرافشان شکل می‌دهد. این موضوع برای سیستم‌های هوش مصنوعی نیز صادق است.

سوگیری در هوش مصنوعی می‌تواند از روشی که داده‌های آموزشی جمع‌آوری و پردازش می‌شود ناشی می‌شود. اشتباهاتی که دانشمندان داده ممکن است مرتکب شوند، شامل حذف مطالب ارزشمند، برچسب زدن متناقض داده‌ها و نمونه‌برداری نامتوازن (بیش از حد کم یا زیاد) می‌باشد. برای مثال، نمونه‌برداری کم می‌تواند باعث ایجاد انحراف در توزیع کلاس‌ها شود و باعث شود مدل‌های هوش مصنوعی کلاس‌های اقلیت را به طور کامل نادیده بگیرند. در مقابل، نمونه‌برداری بیش از حد، به نوبه خود ممکن است منجر به نمایش بیش از حد گروه‌ها یا عوامل خاص در مجموعه‌ی داده‌های آموزشی شود. به عنوان مثال، جرایم ارتکابی در مکان‌هایی که پلیس به آنها رفت و آمد می‌کند، به احتمال زیاد در مجموعه داده‌های آموزشی ثبت می‌شوند، صرفاً به این دلیل که گشت پلیس در آنجاست. در نتیجه، الگوریتم‌های آموزش داده شده بر روی چنین داده‌هایی احتمالاً منعکس‌کننده‌ی این عدم تناسب هستند.

یک منبع دیگر سوگیری هوش مصنوعی، بازخورد کاربران دنیای واقعی در تعامل با مدل‌های هوش مصنوعی است. افراد ممکن است بدون این که متوجه باشند، سوگیری را که در مدل‌های هوش مصنوعی از قبل مستقر شده است، تقویت کنند. به عنوان مثال، یک شرکت کارت اعتباری ممکن است از الگوریتم هوش مصنوعی‌ای استفاده کند که دارای سوگیری اجتماعی در تبلیغ محصولاتشان است و افراد کم سواد را با پیشنهادهایی با نرخ بهره بالاتر هدف قرار می‌دهد. این افراد ممکن است روی این نوع تبلیغات کلیک کنند، بدون این که بدانند به سایر گروه‌های اجتماعی پیشنهادات بهتری نشان داده می‌شود. این اقدام باعث می‌شود سوگیری موجود در این سیستم افزایش یابد.


برای این که درک صحیحی از تاثیر سوگیری در عملکرد سیستم‌های مبتنی بر هوش مصنوعی داشته باشیم، بهتر است در ابتدا انواع سوگیری در رفتار انسان‌ها را به درستی بشناسیم. این سوگیری‌ها با تاثیر در روند جمع‌آوری داده می‌توانند به مدل‌های هوش مصنوعی نیز منتقل شوند. در ادامه به معرفی انواع سوگیری در رفتار انسان‌ها می‌پردازیم و پس از آن به بررسی چند نمونه از این سوگیری‌ها در هوش مصنوعی می‌پردازیم.


انواع سوگیری

سوگیری گزارش‌دهی (Reporting Bias)

سوگیری گزارش‌دهی که همچنین به عنوان گزارش‌دهی انتخابی (selective reporting) نیز شناخته می‌شود، زمانی اتفاق می‌افتد که تنها بخشی از نتایج به صورت گزینشی در یک مجموعه داده جمع‌آوری می‌شوند. بنابراین، نتایج جمع‌آوری شده تنها بخشی از کل داده‌های دنیای واقعی را پوشش می‌دهد. به عنوان مثال، بر اساس داده‌های موجود انتظار می‌رود که انسان‌ها بیشتر بخندند تا پلک بزنند، چون پلک زدن معمولا در گزارش‌ها آورده نمی‌شود. برخی از انواع سوگیری‌های گزارش‌دهی به شرح زیر است:

  • سوگیری استنادی (Citation Bias): زمانی اتفاق می‌افتد که تحلیل شما بر اساس مطالعاتی است که در استنادات سایر مطالعات وجود دارد.
  • سوگیری زبانی (Language Bias): زمانی اتفاق می‌افتد که فرد گزارش‌ها یا داده‌هایی را که به زبان مادری‌اش منتشر نشده‌اند نادیده می‌گیرد.
  • سوگیری انتشار تکراری (Duplicate Publication Bias): زمانی اتفاق می‌افتد که برخی از مطالعات یا داده‌ها وزن بیشتری دارند زیرا در بیش از یک مکان منتشر شده‌اند.
  • سوگیری مکانی (Location Bias): زمانی رخ می‌دهد که یافتن برخی از داده‌ها دشوارتر از سایرین باشد.
  • سوگیری انتشار (Publication Bias): زمانی اتفاق می‌افتد که احتمال انتشار مطالعاتی با یافته‌های مثبت بیشتر از مطالعاتی است که یافته‌های منفی دارند یا یافته‌های مهمی ندارند.
  • سوگیری گزارش نتیجه (Outcome Reporting Bias): زمانی اتفاق می‌افتد که گزارش‌های انتخابی از نتایج خاص وجود داشته باشد. برای مثال شما فقط زمانی گزارش می‌دهید که شرکت درآمدهای مثبت را در گزارش سه‌ماهه منتشر کند.
  • سوگیری تاخیر زمانی (Time lag bias): زمانی اتفاق می‌افتد که انتشار برخی از مطالعات یا داده‌ها سال‌ها طول می‌کشد.

سوگیری خودکارسازی (Automation Bias)

سوگیری خودکارسازی به تمایل بیش از اندازه افراد به واگذاری تصمیمات خود به سامانه‌های خودکار و نادیده گرفتن اطلاعات متناقض ارائه‌شده توسط سیستم‌های غیرخودکار، حتی اگر درست باشند، گفته می‌شود. این نوع سوگیری می‌تواند به بی‌دقتی در نظارت و تصمیم‌گیری منجر شود.

سوگیری خودکارسازی معمولاً در جاهایی دیده می‌شود که سامانه بیشتر به صورت خودکار اداره می‌شود و افراد تنها نقش ناظر را بر عهده دارند. این سوگیری ممکن است در برخورد با هر زمینه‌ای، مانند کنترل یک نیروگاه هسته‌ای، خلبان خودکار، یا حتی یک غلط‌یاب رایانه‌ای دیده شود.

خطاهای ناشی از سوگیری خودکارسازی می‌تواند به صورت از قلم‌ افتادن عملی که باید انجام شود (در مواقعی که سامانه خودکار آن را شناسایی نکرده است) یا به اشتباه افتادن افراد به دلیل پیشنهاد یا تصمیم اشتباه سامانه ظاهر شود.

سوگیری انتخابی (Selection Bias)

سوگیری انتخابی زمانی اتفاق می‌افتد که داده‌ها به گونه‌ای انتخاب شوند که منعکس‌کننده‌ی توزیع داده‌های دنیای واقعی نیستند. دلیل این اتفاق این است که هنگام جمع‌آوری داده‌ها، تصادفی‌سازی (randomization) مناسب حاصل نشده است. برخی از انواع سوگیری انتخابی به شرح زیر است:

  • سوگیری نمونه‌گیری (Sampling Bias): زمانی اتفاق می‌افتد که تصادفی‌سازی به درستی در طول جمع‌آوری داده‌ها به دست نیاید.
  • سوگیری همگرایی (Convergence bias): زمانی اتفاق می‌افتد که داده‌های جمع‌آوری‌شده را نتوان به عنوان نماینده‌ای از کل داده‌ها در نظر گرفت. به عنوان مثال، وقتی داده‌ها را فقط با نظرسنجی از مشتریانی که محصول شما را خریداری کرده‌اند جمع‌آوری کنید، مجموعه‌ی داده‌های شما گروهی از افراد را که محصول شما را خریداری نکرده‌اند شامل نمی‌شود.
  • سوگیری مشارکت (Participation bias): زمانی اتفاق می‌افتد که داده‌ها به دلیل عدم مشارکت برخی از افراد در فرآیند جمع‌آوری داده‌ها، ناقص هستند.

به عنوان مثال فرض کنید شرکت اپل و سامسونگ در یک روز محصول جدیدشان را عرضه می‌کنند. شما برای ۱۰۰۰ نفر یک فرم نظرسنجی ارسال می‌کنید تا نظرات آن‌ها را جمع آوری کنید. اگر به جای انتخاب تصادفی پاسخ‌ها تصمیم بگیرید که فقط ۱۰۰ مشتری اولی را که در نظرسنجی شرکت کرده‌اند انتخاب کنید، منجر به سوگیری نمونه‌گیری می‌شود؛ زیرا آن ۱۰۰ مشتری به احتمال زیاد نسبت به محصول مشتاق‌تر هستند و نظرات خوبی ارائه می‌دهند.

در مرحله بعد، اگر تصمیم بگیرید داده‌ها را تنها از طریق نظرسنجی از مشتریان اپل جمع‌آوری کنید، یک سوگیری همگرایی در مجموعه داده ایجاد می‌شود.

در نهایت فرض کنید شما نظرسنجی را برای ۵۰۰ مشتری اپل و ۵۰۰ مشتری سامسونگ ارسال کرده‌اید و از بین آن‌ها، ۴۰۰ مشتری اپل و تنها ۱۰۰ مشتری سامسونگ پاسخ می‌دهند. اکنون، این مجموعه داده، نظر مشتریان سامسونگ را کمتر نشان می‌دهد و دارای سوگیری مشارکت است.


سوگیری تعمیم افراطی (Overgeneralization Bias)

سوگیری تعمیم افراطی یک شیوه‌ی تفکر تحریف شده است که منجر به برخی خطاهای بسیار مهم در تفکر می‌شود. این سوگیری زمانی اتفاق می‌افتد که فرض کنید آنچه در مجموعه‌ی داده‌ی خود می‌بینید، همان چیزی است که در هر مجموعه‌ی داده‌ی دیگری که برای ارزیابی همان اطلاعات است، بدون توجه به اندازه آن، مشاهده خواهید کرد. این سوگیری در مرحله تحلیل نتایج آموزش مدل ممکن است باعث خطا شود.


سوگیری ضمنی (Implicit Bias)

سوگیری ضمنی زمانی اتفاق می‌افتد که مفروضاتی بر اساس تجربیات شخصی خود فرد ساخته می‌شوند که لزوماً کاربرد کلی‌تری ندارند. به عنوان مثال یک مهندس بینایی کامپیوتر از آمریکای شمالی رنگ قرمز را به عنوان خطر درنظر می‌گیرد؛ درحالی‌که، همان رنگ قرمز یک رنگ محبوب در فرهنگ چینی است که نماد شانس، شادی و خوشبختی است.

یکی از مهم‌ترین انواع سوگیری ضمنی، سوگیری تاییدی یا Confirmation Bias است. سوگیری تاییدی گرایش به جستجو در اطلاعات یا تعبیر کردن آن به نحوی است که باورها یا فرضیه‌های خود شخص را تایید کند. به دنبال پیروی از این سوگیری، شخص تنها جنبه‌هایی از موضوع را می‌بیند که متناسب با تعصباتش است و از مواردی که مغایر با باورهایش است، اجتناب می‌کند.

مصداق سوگیری تاییدی به مثابه ضرب‌المثل «مثل کبک سرش را زیر برف فرو کرده است» می‌باشد که برای افرادی به کار می‌رود که عمداً چشمشان را به روی واقعیت‌ها می‌بندند. مثال‌های دیگری که برای سوگیری تاییدی می‌توان بیان کرد، عبارت است از:

  • شخصی که تنها به اطلاعاتی توجه می‌کند که در راستای تایید اعتقاداتش درباره گرمایش زمین است.
  • شخصی که در شبکه‌های اجتماعی تنها افرادی را دنبال می‌کند که با او دیدگاه‌های مشترکی دارند.
  • شخصی که تنها پایگاه‌های خبری را بررسی می‌کند که خبرهایی هم‌سو با ذائقه سیاسی‌اش را منتشر می‌کند.

مشکل این نوع سوگیری این است که ممکن است باعث انتخاب‌های ضعیف یا ناتوانی در گوش دادن به نظرات مخالف شود. در آموزش مدل‌های هوش مصنوعی، توسعه‌دهندگان ممکن است ناخواسته در روند جمع‌‌آوری یا برچسب زدن داده‌ها به شکلی عمل کنند که سیستم به خروجی‌ای مطابق با باورهای آنان دست پیدا کند. این کار باعث می‌شود تا سوگیری تاییدی به مدل آموزش‌دیده نیز منتقل شود. هم‌چنین ممکن است محققان در تحلیل نتایج مدل‌های هوش مصنوعی دچار این سوگیری شوند.

سوگیری پَس‌نگری (Hindsight Bias)

پس‌نگری نوعی سوگیری شناختی است که ذهن پس از این که چیزی اتفاق می‌افتد گمان می‌کند از اول از آن خبر داشته است. فردی که با پس‌نگری قضاوت می‌کند پس از این که رویدادی اتفاق می‌افتد با گفتن جملاتی شبیه «ته ذهنم از اول مطمئن بودم» یا «الآن که فکر می‌کنم از اول می‌دانستم چنین خواهد شد» القا می‌کند که آن رویداد قابل پیش‌بینی بوده، در حالی که در واقعیت شواهد اندکی برای پیش‌بینی وجود داشته است.تعدادی از مثال‌های سوگیری پس‌نگری عبارت است از:

  • اصرار بر این که می‌دانستید چه تیمی قرار است یک بازی فوتبال را برنده شود.
  • باور داشتن به این که در تمام مدت می‌دانستید که کدام نامزد سیاسی قرار است در انتخابات پیروز شود.
  • بررسی یکی از امتحانات گذشته و فکر کردن به این که جواب سوالاتی را که از دست داده‌اید می‌دانستید.
  • باور به این که می‌توانستید پیش‌بینی کنید کدام سهام سودآور می‌شود.

در یک آزمایش روانشناسی کلاسیک، از دانش‌آموزان یک کالج خواسته شد پیش‌بینی کنند که آیا کلارنس توماس (یکی از نامزدهای انتخابات مجلس سنا آمریکا) می‌تواند به مجلس راه پیدا کند یا خیر. قبل از انتخابات سنا، ۵۸ درصد از دانش‌آموزان فکر می‌کردند که توماس رای خواهد آورد. پس از انتخاب شدن توماس، از دانش‌آموزان مجدداً نظرسنجی شد و این بار ۷۸ درصد از دانش‌آموزان گفتند که معتقد بودند توماس رای می‌آورد.

سوگیری پس‌نگری به دلایل مختلفی رخ می‌دهد، از جمله ناتوانایی ما در به یادآوردن پیش‌بینی‌های قبلی، تمایل ما به تلقی رویدادها به عنوان موارد اجتناب‌ناپذیر، و تمایل ما به این باور که می‌توانستیم رویدادهای خاصی را پیش‌بینی کرده باشیم. این سوگیری در مرحله تحلیل نتایج می‌تواند باعث شود که ما انتظاراتی غیر واقعی از مدل‌های هوش مصنوعی داشته باشیم.


سوگیری لنگر انداختن (Anchoring Bias)

لنگر انداختن نوعی سوگیری شناختی است که طی آن ذهن در فرآیند تصمیم‌گیری به نخستین اطلاعاتی که به دست می‌آورد تکیه می‌کند. ذهن روی اطلاعات اولیه یا قسمتی از آن گیر می‌افتد و زحمت جستجوی بیشتر را به خود نمی‌دهد. به عنوان مثال اولین رقمی که در یک حراجی برای فروش یک اثر هنری بیان می‌شود، معمولا به یک نقطه لنگرگاه تبدیل می‌شود و قیمت‌های پیشنهادی بعدی مبتنی بر آن است و یا پزشکان می توانند در هنگام معاینه بیماران مستعد سوگیری لنگر شوند. اولین برداشت‌های پزشک از بیمار اغلب یک نقطه لنگر ایجاد می‌کند که گاهی اوقات می‌تواند به اشتباه بر تمام ارزیابی‌های تشخیصی بعدی تأثیر بگذارد.

همانند سایر سوگیری‌های شناختی، سوگیری لنگر انداختن تصمیم‌گیری‌های روزمره ما را تحت تاثیر قرار می‌دهد. افرادی که دچار این سوگیری هستند نمی‌توانند کلیه فاکتورهای ممکن را مورد بررسی قرار دهند که این امر منجر به تصمیم‌گیری اشتباه می‌شود.در کار با مدل‌های هوش مصنوعی، این سوگیری می‌تواند باعث تحلیل اشتباه خطاهای مدل شود.

سوگیری راه‌حل دمِ‌دست (Availability Heuristic)

سوگیری راه‌حل دم‌دست نوعی سوگیری شناختی است که تحت تاثیر آن، افراد تمایل دارند اطلاعات تازه‌تر و دردسترس‌تر را اساس قضاوت قرار دهند. مثلا فرد بعد از شنیدن اخبار مختلف درباره سرقت چندین خودرو در محله‌ای که زندگی می‌کند، ممکن است این‌گونه تصور کند که جرم و جنایت در کل شهر افزایش پیدا کرده است. مثال دیگری که برای این سوگیری می‌توان بیان کرد، اخبار مربوط به سقوط هواپیماست. برخی افراد وقتی خبرهای مربوط به سقوط هواپیما و تعداد کشته‌های ناشی از آن سانحه را می‌شنوند، از ترس سقوط هواپیما ممکن است تا مدت‌ها از سفر هوایی خودداری کنند و ترجیح دهند با خودرو شخصی سفر کنند، درحالی‌که آمار سوانح جاده‌ای به مراتب بیشتر از سوانح هوایی است.

همان‌طور که از این مثال‌ها مشخص است، راه حل دم‌دست، احتمال وقوع هر رویداد را بر اساس در دسترس بودن اطلاعات مربوط به آن واقعه در حافظه حدس می‌زند. درنتیجه افراد به اطلاعاتی که در دسترس است بیش از حد اعتماد می‌کنند. این سوگیری می‌تواند محققان را در تحلیل مدل گمراه کند.

مثال‌هایی از سوگیری در هوش مصنوعی

سوگیری جنسیتی در سیستم استخدام خودکار آمازون

آمازون با هدف خودکارسازی فرآیند استخدام، یک پروژه هوش مصنوعی را در سال 2014 آغاز کرد. پروژه آنها صرفاً به بررسی رزومه متقاضیان و رتبه‌بندی آنها با استفاده از الگوریتم‌های هوش مصنوعی می‌پرداخت تا از این طریق کارمندان بخش منابع انسانی وقت خود را صرف بررسی دستی رزومه افراد نکنند. با این حال، در سال 2015 آمازون متوجه شد که سیستم جدید استخدام آن‌ها به طور منصفانه متقاضیان را رتبه‌بندی نمی‌کند و دارای سوگیری علیه زنان است.

آمازون از داده‌های تاریخی 10 سال گذشته برای آموزش مدل هوش مصنوعی خود استفاده کرده بود. داده‌های تاریخی حاوی سوگیری‌هایی علیه زنان بود. زیرا در آن بازه زمانی مردان بیشتری نسبت به زنان در این حوزه فعالیت می‌کردند. از نظر آماری مردان 60 درصد از کارکنان آمازون را تشکیل می‌دادند. بنابراین سیستم استخدام آمازون به اشتباه آموزش دیده بود که متقاضیان مرد ارجحیت دارند و رزومه‌های زنان را رد می‌کرد. در نهایت آمازون استفاده از این الگوریتم را برای اهداف استخدامی متوقف کرد.


سوگیری نژادی در الگوریتم مراقبت‌های بهداشتی

در ایالات متحده الگوریتمی جهت پیش‌بینی اینکه چه بیمارانی احتمالاً به مراقبت‌های پزشکی اضافی نیاز دارند طراحی شده بود. این الگوریتم بر روی بیش از 200 میلیون از شهروندان ایالات متحده استفاده شد و مشخص شد که دارای سوگیری نژادی است. نتایجی که این الگوریتم تولید می‌کرد به نفع افراد سفیدپوست بود و بر علیه سیاه‌پوستان سوگیری داشت.

طراحان این الگوریتم از هزینه‌های مراقبت‌های بهداشتی بیماران قبلی به عنوان داده‌های آموزشی استفاده کرده بودند. استفاده از این داده‌ها، تفسیر غلطی را در سیستم هوش مصنوعی ایجاد کرده بود؛ زیرا درآمد و نژاد معیارهایی با همبستگی بالایی هستند و فرضیات مبتنی بر تنها یک متغیر از معیارهای همبسته باعث شد الگوریتم نتایج نادرستی ارائه دهد.


سوگیری نژادی در نرم‌افزار جرم‌شناسی

الگوریتم COMPAS به منظور پیش‌بینی احتمال وقوع مجدد جرم در سیستم‌های دادگاه ایالتی در سراسر ایالات متحده استفاده می‌شود. این نرم‌افزار در هنگام محکومیت مجرمان به عنوان یک راهنما عمل می‌کند و احتمال وقوع جرم توسط آن‌ها را پیش‌بینی می‌کند. پس از بررسی نتایج بدست آمده از این نرم‌افزار مشخص شد که دارای سوگیری بر علیه سیاه‌پوستان است. نتایج آماری که الگوریتم تولید می‌کند بیانگر آن است که متهمان سیاه‌پوست احتمال بیشتری دارد که مجددا مرتکب به جرم شوند و این در حالی است که این میزان برای متهمان سفید‌پوست کمتر است.

سوگیری در الگوریتم تبلیغاتی فیسبوک

در سال ۲۰۱۹ مشخص شد که فیس‌بوک برخلاف قانون اساسی ایالات متحده، به تبلیغ‌کنندگان خود اجازه می‌دهد تا عمداً تبلیغات را بر اساس جنسیت، نژاد و مذهب هدف قرار دهند. درنتیجه آگهی‌های شغلی مربوط به پرستاری یا منشی عمدتاً به زنان پیشنهاد می‌شد، در حالی که آگهی‌های شغلی برای سرایداری و رانندگان تاکسی به تعداد بیشتری از مردان، به‌ویژه مردانی که در طبقه اقلیت قرار داشتند، نشان داده می‌شد. در نهایت به دلیل این دستکاری‌های انجام شده در نتایج، الگوریتم به‌گونه‌ای آموزش دید‌ که آگهی‌های املاک و مستغلات وقتی به افراد سفیدپوست نشان داده می‌شوند احتمالاً به آمار تعامل بهتری می‌رسند و در نتیجه دیگر به سایر گروه‌های اقلیت نشان داده نمی‌شد.


همین‌طور که مشاهده کردید، سوگیری‌های انسانی می‌توانند به شکل‌های مختلف عملکرد مدل‌های هوش مصنوعی را تحت تاثیر قرار دهند. از این رو، محققان در تلاشند تا با شناخت انواع سوگیری‌ها و آگاهی به آن‌ها، تاثیرگذاری سوگیری‌ها را کم کنند.

نویسنده: بنیامین زارعی

منابع:

https://www.masterclass.com/articles/how-to-identify-bias

https://www.verywellmind.com/cognitive-biases-distort-thinking-2794763

https://www.lexalytics.com/lexablog/bias-in-ai-machine-learning

https://itrexgroup.com/blog/ai-bias-definition-types-examples-debiasing-strategies/#

https://towardsdatascience.com/real-life-examples-of-discriminating-artificial-intelligence-cae395a90070

https://www.logically.ai/articles/5-examples-of-biased-ai

https://towardsdatascience.com/types-of-biases-in-data-cafc4f2634fb

https://www.mlglossary.ir/




هوش مصنوعیartificial intelligenceسوگیریbiasسوگیری شناختی
شاید از این پست‌ها خوشتان بیاید