تصور بسیاری از مردم این است که هنگام تصمیمگیری دربارهی موضوعات مختلف، بر اساس استدلالهای منطقی عمل میکنند؛ اما در حقیقت ذهن تمام انسانها، بسته به شرایط مختلف، تحت تاثیر سوگیریهایی است که به شدت بر روی اقدامات آنها تاثیر میگذارد. این سوگیریها در واقع یک تصور قوی و از پیش ساختهشده از کسی یا چیزی هستند که به واسطهی اطلاعاتی که «داریم» یا «نداریم» شکل گرفتهاند.
سوگیریهای شناختی (Cognitive Bias) افکار و اعتقادات ما را دچار اختلال میکنند و در نهایت منجر به اشتباهات سیستماتیک در پردازش و تفسیر ما از اطلاعات مختلف در جهان پیرامون میشود. گاهی اوقات این سوگیریها به شکل نسبتا واضحی خودشان را نشان میدهند و یک شخص میتواند به راحتی این گرایشات را در خود یا دیگران مشاهده کند؛ اما در موارد دیگری به شکل نامحسوس بر روی افکار ما تاثیر میگذارند و نمیتوان به سادگی متوجه آنها شد.
انسانها در هنگام مواجهه با یک مسئله جدید، امکان ارزیابی تمام جزئیات ممکن را ندارند. اگر فرد بخواهد قبل از تصمیمگیری دربارهی یک موضوع خاص، تمام گزینههای موجود را به دقت بررسی کند، تصمیمگیری دربارهی یک موضوع ساده و پیش پا افتاده نیز به شدت زمانبر و طاقتفرسا خواهد بود. به دلیل پیچیدگیهای جهان پیرامون ما و همچنین انبوه اطلاعاتی که روزانه ما را بمباران میکنند، منطقی به نظر میرسد که فرد با تکیه بر میانبرهای ذهنی خود تصمیم بگیرد.
تکیه بر میانبرهای ذهنی منجر به شکلگیری سوگیری در افراد میشود؛ زیرا برخی از تعصبات که در ذهن انسان نهادینه شدهاند، باعث انحراف از تصمیم یا قضاوت صحیح میگردند. علاوه بر این ممکن است عوامل دیگری نیز در شکلگیری سوگیری تاثیرگذار باشد؛ به عنوان مثال احساسات، انگیزههای فردی، محدودیت در توانایی ذهن برای پردازش اطلاعات و فشارهای اجتماعی عوامل دیگری هستند که باعث شکلگیری سوگیری میشوند.
سوگیری شناختی یک مسئلهی روانشناختی است که سالها توسط محققان مختلف مورد مطالعه قرار گرفته است. طی سالهای اخیر، بسیاری از جوامع در حال بررسی این موضوع هستند که چه مقدار از این سوگیریها و تعصبات انسانی وارد سیستمهای هوش مصنوعی شدهاند. با توجه به این که بسیاری از شرکتها در حال استفاده از راهکارهای مبتنی بر هوش مصنوعی به منظور ارتقاء کیفیت خدماتشان هستند، آگاهی عمیق از این تهدیدها و تلاش برای به حداقل رساندن آنها میتواند بسیار مفید باشد.
سوال اساسی که مطرح میشود این است که، علت اصلی معرفی سوگیری در سیستمهای هوش مصنوعی چیست و چگونه میتوان از آن جلوگیری کرد؟ در موارد متعددی، سوگیریها میتوانند به الگوریتمهای هوش مصنوعی نفوذ کنند. سیستمهای هوش مصنوعی با دادههایی آموزش داده میشوند که تصمیمات انسانی در آنها دخیل است. اگر مواردی همچون جنسیت، قومیت، نابرابریهای تاریخی و اجتماعی که از سوگیری ذهن انسانها نشئت میگیرد در این دادهها وجود داشته باشد، الگوریتمهای سیستمهای هوش مصنوعی نیز به تبع آن دچار این سوگیریها خواهند شد.
ما اغلب شنیدهایم که کامپیوترها بیطرف هستند؛ اما متأسفانه این طور نیست. در مورد انسانها شیوهی تربیتی، تجربهها و فرهنگی که در آن رشد کردهاند، مفروضات آنها را دربارهی دنیای اطرافشان شکل میدهد. این موضوع برای سیستمهای هوش مصنوعی نیز صادق است.
سوگیری در هوش مصنوعی میتواند از روشی که دادههای آموزشی جمعآوری و پردازش میشود ناشی میشود. اشتباهاتی که دانشمندان داده ممکن است مرتکب شوند، شامل حذف مطالب ارزشمند، برچسب زدن متناقض دادهها و نمونهبرداری نامتوازن (بیش از حد کم یا زیاد) میباشد. برای مثال، نمونهبرداری کم میتواند باعث ایجاد انحراف در توزیع کلاسها شود و باعث شود مدلهای هوش مصنوعی کلاسهای اقلیت را به طور کامل نادیده بگیرند. در مقابل، نمونهبرداری بیش از حد، به نوبه خود ممکن است منجر به نمایش بیش از حد گروهها یا عوامل خاص در مجموعهی دادههای آموزشی شود. به عنوان مثال، جرایم ارتکابی در مکانهایی که پلیس به آنها رفت و آمد میکند، به احتمال زیاد در مجموعه دادههای آموزشی ثبت میشوند، صرفاً به این دلیل که گشت پلیس در آنجاست. در نتیجه، الگوریتمهای آموزش داده شده بر روی چنین دادههایی احتمالاً منعکسکنندهی این عدم تناسب هستند.
یک منبع دیگر سوگیری هوش مصنوعی، بازخورد کاربران دنیای واقعی در تعامل با مدلهای هوش مصنوعی است. افراد ممکن است بدون این که متوجه باشند، سوگیری را که در مدلهای هوش مصنوعی از قبل مستقر شده است، تقویت کنند. به عنوان مثال، یک شرکت کارت اعتباری ممکن است از الگوریتم هوش مصنوعیای استفاده کند که دارای سوگیری اجتماعی در تبلیغ محصولاتشان است و افراد کم سواد را با پیشنهادهایی با نرخ بهره بالاتر هدف قرار میدهد. این افراد ممکن است روی این نوع تبلیغات کلیک کنند، بدون این که بدانند به سایر گروههای اجتماعی پیشنهادات بهتری نشان داده میشود. این اقدام باعث میشود سوگیری موجود در این سیستم افزایش یابد.
برای این که درک صحیحی از تاثیر سوگیری در عملکرد سیستمهای مبتنی بر هوش مصنوعی داشته باشیم، بهتر است در ابتدا انواع سوگیری در رفتار انسانها را به درستی بشناسیم. این سوگیریها با تاثیر در روند جمعآوری داده میتوانند به مدلهای هوش مصنوعی نیز منتقل شوند. در ادامه به معرفی انواع سوگیری در رفتار انسانها میپردازیم و پس از آن به بررسی چند نمونه از این سوگیریها در هوش مصنوعی میپردازیم.
سوگیری گزارشدهی که همچنین به عنوان گزارشدهی انتخابی (selective reporting) نیز شناخته میشود، زمانی اتفاق میافتد که تنها بخشی از نتایج به صورت گزینشی در یک مجموعه داده جمعآوری میشوند. بنابراین، نتایج جمعآوری شده تنها بخشی از کل دادههای دنیای واقعی را پوشش میدهد. به عنوان مثال، بر اساس دادههای موجود انتظار میرود که انسانها بیشتر بخندند تا پلک بزنند، چون پلک زدن معمولا در گزارشها آورده نمیشود. برخی از انواع سوگیریهای گزارشدهی به شرح زیر است:
سوگیری خودکارسازی به تمایل بیش از اندازه افراد به واگذاری تصمیمات خود به سامانههای خودکار و نادیده گرفتن اطلاعات متناقض ارائهشده توسط سیستمهای غیرخودکار، حتی اگر درست باشند، گفته میشود. این نوع سوگیری میتواند به بیدقتی در نظارت و تصمیمگیری منجر شود.
سوگیری خودکارسازی معمولاً در جاهایی دیده میشود که سامانه بیشتر به صورت خودکار اداره میشود و افراد تنها نقش ناظر را بر عهده دارند. این سوگیری ممکن است در برخورد با هر زمینهای، مانند کنترل یک نیروگاه هستهای، خلبان خودکار، یا حتی یک غلطیاب رایانهای دیده شود.
خطاهای ناشی از سوگیری خودکارسازی میتواند به صورت از قلم افتادن عملی که باید انجام شود (در مواقعی که سامانه خودکار آن را شناسایی نکرده است) یا به اشتباه افتادن افراد به دلیل پیشنهاد یا تصمیم اشتباه سامانه ظاهر شود.
سوگیری انتخابی زمانی اتفاق میافتد که دادهها به گونهای انتخاب شوند که منعکسکنندهی توزیع دادههای دنیای واقعی نیستند. دلیل این اتفاق این است که هنگام جمعآوری دادهها، تصادفیسازی (randomization) مناسب حاصل نشده است. برخی از انواع سوگیری انتخابی به شرح زیر است:
به عنوان مثال فرض کنید شرکت اپل و سامسونگ در یک روز محصول جدیدشان را عرضه میکنند. شما برای ۱۰۰۰ نفر یک فرم نظرسنجی ارسال میکنید تا نظرات آنها را جمع آوری کنید. اگر به جای انتخاب تصادفی پاسخها تصمیم بگیرید که فقط ۱۰۰ مشتری اولی را که در نظرسنجی شرکت کردهاند انتخاب کنید، منجر به سوگیری نمونهگیری میشود؛ زیرا آن ۱۰۰ مشتری به احتمال زیاد نسبت به محصول مشتاقتر هستند و نظرات خوبی ارائه میدهند.
در مرحله بعد، اگر تصمیم بگیرید دادهها را تنها از طریق نظرسنجی از مشتریان اپل جمعآوری کنید، یک سوگیری همگرایی در مجموعه داده ایجاد میشود.
در نهایت فرض کنید شما نظرسنجی را برای ۵۰۰ مشتری اپل و ۵۰۰ مشتری سامسونگ ارسال کردهاید و از بین آنها، ۴۰۰ مشتری اپل و تنها ۱۰۰ مشتری سامسونگ پاسخ میدهند. اکنون، این مجموعه داده، نظر مشتریان سامسونگ را کمتر نشان میدهد و دارای سوگیری مشارکت است.
سوگیری تعمیم افراطی یک شیوهی تفکر تحریف شده است که منجر به برخی خطاهای بسیار مهم در تفکر میشود. این سوگیری زمانی اتفاق میافتد که فرض کنید آنچه در مجموعهی دادهی خود میبینید، همان چیزی است که در هر مجموعهی دادهی دیگری که برای ارزیابی همان اطلاعات است، بدون توجه به اندازه آن، مشاهده خواهید کرد. این سوگیری در مرحله تحلیل نتایج آموزش مدل ممکن است باعث خطا شود.
سوگیری ضمنی زمانی اتفاق میافتد که مفروضاتی بر اساس تجربیات شخصی خود فرد ساخته میشوند که لزوماً کاربرد کلیتری ندارند. به عنوان مثال یک مهندس بینایی کامپیوتر از آمریکای شمالی رنگ قرمز را به عنوان خطر درنظر میگیرد؛ درحالیکه، همان رنگ قرمز یک رنگ محبوب در فرهنگ چینی است که نماد شانس، شادی و خوشبختی است.
یکی از مهمترین انواع سوگیری ضمنی، سوگیری تاییدی یا Confirmation Bias است. سوگیری تاییدی گرایش به جستجو در اطلاعات یا تعبیر کردن آن به نحوی است که باورها یا فرضیههای خود شخص را تایید کند. به دنبال پیروی از این سوگیری، شخص تنها جنبههایی از موضوع را میبیند که متناسب با تعصباتش است و از مواردی که مغایر با باورهایش است، اجتناب میکند.
مصداق سوگیری تاییدی به مثابه ضربالمثل «مثل کبک سرش را زیر برف فرو کرده است» میباشد که برای افرادی به کار میرود که عمداً چشمشان را به روی واقعیتها میبندند. مثالهای دیگری که برای سوگیری تاییدی میتوان بیان کرد، عبارت است از:
مشکل این نوع سوگیری این است که ممکن است باعث انتخابهای ضعیف یا ناتوانی در گوش دادن به نظرات مخالف شود. در آموزش مدلهای هوش مصنوعی، توسعهدهندگان ممکن است ناخواسته در روند جمعآوری یا برچسب زدن دادهها به شکلی عمل کنند که سیستم به خروجیای مطابق با باورهای آنان دست پیدا کند. این کار باعث میشود تا سوگیری تاییدی به مدل آموزشدیده نیز منتقل شود. همچنین ممکن است محققان در تحلیل نتایج مدلهای هوش مصنوعی دچار این سوگیری شوند.
پسنگری نوعی سوگیری شناختی است که ذهن پس از این که چیزی اتفاق میافتد گمان میکند از اول از آن خبر داشته است. فردی که با پسنگری قضاوت میکند پس از این که رویدادی اتفاق میافتد با گفتن جملاتی شبیه «ته ذهنم از اول مطمئن بودم» یا «الآن که فکر میکنم از اول میدانستم چنین خواهد شد» القا میکند که آن رویداد قابل پیشبینی بوده، در حالی که در واقعیت شواهد اندکی برای پیشبینی وجود داشته است.تعدادی از مثالهای سوگیری پسنگری عبارت است از:
در یک آزمایش روانشناسی کلاسیک، از دانشآموزان یک کالج خواسته شد پیشبینی کنند که آیا کلارنس توماس (یکی از نامزدهای انتخابات مجلس سنا آمریکا) میتواند به مجلس راه پیدا کند یا خیر. قبل از انتخابات سنا، ۵۸ درصد از دانشآموزان فکر میکردند که توماس رای خواهد آورد. پس از انتخاب شدن توماس، از دانشآموزان مجدداً نظرسنجی شد و این بار ۷۸ درصد از دانشآموزان گفتند که معتقد بودند توماس رای میآورد.
سوگیری پسنگری به دلایل مختلفی رخ میدهد، از جمله ناتوانایی ما در به یادآوردن پیشبینیهای قبلی، تمایل ما به تلقی رویدادها به عنوان موارد اجتنابناپذیر، و تمایل ما به این باور که میتوانستیم رویدادهای خاصی را پیشبینی کرده باشیم. این سوگیری در مرحله تحلیل نتایج میتواند باعث شود که ما انتظاراتی غیر واقعی از مدلهای هوش مصنوعی داشته باشیم.
لنگر انداختن نوعی سوگیری شناختی است که طی آن ذهن در فرآیند تصمیمگیری به نخستین اطلاعاتی که به دست میآورد تکیه میکند. ذهن روی اطلاعات اولیه یا قسمتی از آن گیر میافتد و زحمت جستجوی بیشتر را به خود نمیدهد. به عنوان مثال اولین رقمی که در یک حراجی برای فروش یک اثر هنری بیان میشود، معمولا به یک نقطه لنگرگاه تبدیل میشود و قیمتهای پیشنهادی بعدی مبتنی بر آن است و یا پزشکان می توانند در هنگام معاینه بیماران مستعد سوگیری لنگر شوند. اولین برداشتهای پزشک از بیمار اغلب یک نقطه لنگر ایجاد میکند که گاهی اوقات میتواند به اشتباه بر تمام ارزیابیهای تشخیصی بعدی تأثیر بگذارد.
همانند سایر سوگیریهای شناختی، سوگیری لنگر انداختن تصمیمگیریهای روزمره ما را تحت تاثیر قرار میدهد. افرادی که دچار این سوگیری هستند نمیتوانند کلیه فاکتورهای ممکن را مورد بررسی قرار دهند که این امر منجر به تصمیمگیری اشتباه میشود.در کار با مدلهای هوش مصنوعی، این سوگیری میتواند باعث تحلیل اشتباه خطاهای مدل شود.
سوگیری راهحل دمدست نوعی سوگیری شناختی است که تحت تاثیر آن، افراد تمایل دارند اطلاعات تازهتر و دردسترستر را اساس قضاوت قرار دهند. مثلا فرد بعد از شنیدن اخبار مختلف درباره سرقت چندین خودرو در محلهای که زندگی میکند، ممکن است اینگونه تصور کند که جرم و جنایت در کل شهر افزایش پیدا کرده است. مثال دیگری که برای این سوگیری میتوان بیان کرد، اخبار مربوط به سقوط هواپیماست. برخی افراد وقتی خبرهای مربوط به سقوط هواپیما و تعداد کشتههای ناشی از آن سانحه را میشنوند، از ترس سقوط هواپیما ممکن است تا مدتها از سفر هوایی خودداری کنند و ترجیح دهند با خودرو شخصی سفر کنند، درحالیکه آمار سوانح جادهای به مراتب بیشتر از سوانح هوایی است.
همانطور که از این مثالها مشخص است، راه حل دمدست، احتمال وقوع هر رویداد را بر اساس در دسترس بودن اطلاعات مربوط به آن واقعه در حافظه حدس میزند. درنتیجه افراد به اطلاعاتی که در دسترس است بیش از حد اعتماد میکنند. این سوگیری میتواند محققان را در تحلیل مدل گمراه کند.
آمازون با هدف خودکارسازی فرآیند استخدام، یک پروژه هوش مصنوعی را در سال 2014 آغاز کرد. پروژه آنها صرفاً به بررسی رزومه متقاضیان و رتبهبندی آنها با استفاده از الگوریتمهای هوش مصنوعی میپرداخت تا از این طریق کارمندان بخش منابع انسانی وقت خود را صرف بررسی دستی رزومه افراد نکنند. با این حال، در سال 2015 آمازون متوجه شد که سیستم جدید استخدام آنها به طور منصفانه متقاضیان را رتبهبندی نمیکند و دارای سوگیری علیه زنان است.
آمازون از دادههای تاریخی 10 سال گذشته برای آموزش مدل هوش مصنوعی خود استفاده کرده بود. دادههای تاریخی حاوی سوگیریهایی علیه زنان بود. زیرا در آن بازه زمانی مردان بیشتری نسبت به زنان در این حوزه فعالیت میکردند. از نظر آماری مردان 60 درصد از کارکنان آمازون را تشکیل میدادند. بنابراین سیستم استخدام آمازون به اشتباه آموزش دیده بود که متقاضیان مرد ارجحیت دارند و رزومههای زنان را رد میکرد. در نهایت آمازون استفاده از این الگوریتم را برای اهداف استخدامی متوقف کرد.
در ایالات متحده الگوریتمی جهت پیشبینی اینکه چه بیمارانی احتمالاً به مراقبتهای پزشکی اضافی نیاز دارند طراحی شده بود. این الگوریتم بر روی بیش از 200 میلیون از شهروندان ایالات متحده استفاده شد و مشخص شد که دارای سوگیری نژادی است. نتایجی که این الگوریتم تولید میکرد به نفع افراد سفیدپوست بود و بر علیه سیاهپوستان سوگیری داشت.
طراحان این الگوریتم از هزینههای مراقبتهای بهداشتی بیماران قبلی به عنوان دادههای آموزشی استفاده کرده بودند. استفاده از این دادهها، تفسیر غلطی را در سیستم هوش مصنوعی ایجاد کرده بود؛ زیرا درآمد و نژاد معیارهایی با همبستگی بالایی هستند و فرضیات مبتنی بر تنها یک متغیر از معیارهای همبسته باعث شد الگوریتم نتایج نادرستی ارائه دهد.
الگوریتم COMPAS به منظور پیشبینی احتمال وقوع مجدد جرم در سیستمهای دادگاه ایالتی در سراسر ایالات متحده استفاده میشود. این نرمافزار در هنگام محکومیت مجرمان به عنوان یک راهنما عمل میکند و احتمال وقوع جرم توسط آنها را پیشبینی میکند. پس از بررسی نتایج بدست آمده از این نرمافزار مشخص شد که دارای سوگیری بر علیه سیاهپوستان است. نتایج آماری که الگوریتم تولید میکند بیانگر آن است که متهمان سیاهپوست احتمال بیشتری دارد که مجددا مرتکب به جرم شوند و این در حالی است که این میزان برای متهمان سفیدپوست کمتر است.
در سال ۲۰۱۹ مشخص شد که فیسبوک برخلاف قانون اساسی ایالات متحده، به تبلیغکنندگان خود اجازه میدهد تا عمداً تبلیغات را بر اساس جنسیت، نژاد و مذهب هدف قرار دهند. درنتیجه آگهیهای شغلی مربوط به پرستاری یا منشی عمدتاً به زنان پیشنهاد میشد، در حالی که آگهیهای شغلی برای سرایداری و رانندگان تاکسی به تعداد بیشتری از مردان، بهویژه مردانی که در طبقه اقلیت قرار داشتند، نشان داده میشد. در نهایت به دلیل این دستکاریهای انجام شده در نتایج، الگوریتم بهگونهای آموزش دید که آگهیهای املاک و مستغلات وقتی به افراد سفیدپوست نشان داده میشوند احتمالاً به آمار تعامل بهتری میرسند و در نتیجه دیگر به سایر گروههای اقلیت نشان داده نمیشد.
همینطور که مشاهده کردید، سوگیریهای انسانی میتوانند به شکلهای مختلف عملکرد مدلهای هوش مصنوعی را تحت تاثیر قرار دهند. از این رو، محققان در تلاشند تا با شناخت انواع سوگیریها و آگاهی به آنها، تاثیرگذاری سوگیریها را کم کنند.
نویسنده: بنیامین زارعی
منابع:
https://www.masterclass.com/articles/how-to-identify-bias
https://www.verywellmind.com/cognitive-biases-distort-thinking-2794763
https://www.lexalytics.com/lexablog/bias-in-ai-machine-learning
https://itrexgroup.com/blog/ai-bias-definition-types-examples-debiasing-strategies/#
https://www.logically.ai/articles/5-examples-of-biased-ai
https://towardsdatascience.com/types-of-biases-in-data-cafc4f2634fb