الگوریتم‌های جانبدارانه: آیا کسی باور دارد که توییتر نژادپرست است؟

منتشرشده در مجله Forbes به تاریخ ۳ اکتبر ۲۰۲۰
لینک مقاله اصلی: Biased Algorithms: Does Anybody Believe Twitter Is Racist?

با توجه به وضعیت فعلی در ایالات‌متحده، که در آن نژادپرستی در اخبار بسیار زیاد است، پاسخ به الگوریتم توییتر برای متمرکز کردن تصاویر در توییت ها، ارزش بررسی دقیق‌تر را دارد و یک مساله بسیار تفرقه‌انداز را اثبات می‌کند.

هدف از الگوریتم توییتر، در اصل، بسیار ساده است: وقتی کسی از یک تصویر در توئیت استفاده می‌کند که نمی‌تواند به طور کامل نشان داده شود، بخشی از آن که در زمان نمایش توییت در تایم‌لاین کاربر نشان داده می‌شود، سعی می‌کند تا بهترین معنی ممکن از آن را برداشت کرده یا مفهوم آن را به بهترین نحو ممکن خلاصه کند.

برای انجام این کار، الگوریتم تمایل دارد بخش‌هایی از تصویر را انتخاب کند، برای مثال، جایی که یک متن یا یک صورت را تشخیص می‌دهد، به طور منطقی تمایل دارد که بر روی آن تمرکز کند. تا حالا خیلی خوب بود.

مشکل زمانی بروز پیدا می‌کند که مردم متوجه می‌شوند الگوریتم تقریبا همیشه بین یک صورت سفید و یک صورت سیاه، صورت سفید را انتخاب می‌کند. خودتان آن را امتحان کنید: دو صورت، یک صورت سفید و یک سیاه را به اندازه کافی از هم جدا کنید که نتوانند همزمان نشان داده شوند، سپس آن را توییت کنید، و نتیجه را ببینید.

همین امر در مورد سگ‌ها و شخصیت‌های کارتونی نیز صادق است. مهم نیست تصویر سیاه یا سفید شخص در کدام طرف است: چپ، راست، بالا، پایین … الگوریتم همیشه عکس فرد سفید پوست را انتخاب می‌کند. پس‌زمینه؟ به نظر نمی‌رسد که تفاوت زیادی ایجاد کند -  بزرگسالان یا کودکان؟ نه. همه چیز نشان می‌دهد که الگوریتم توییتر، به دلایلی نژادپرستانه است.

بدیهی است که این نتیجه اولیه، مانند بسیاری دیگر، کاملا اشتباه است. برای هر کسی که حتی کوچک‌ترین دانشی از توییتر دارد یا با مدیران آن ارتباط داشته‌است، این ایده که این سازمان نژادپرستانه است، کاملا بی‌معنی است. هر چه باشد، الگوریتم‌ها تنها داده‌های استفاده‌شده برای آموزش آن‌ها را منعکس می‌کنند و اغلب در الگوهایی منعکس می‌شوند که در ابتدا دیده نمی‌شوند. با وحشت زدگی، واکنش شرکت شفاف است و برخی از مدیران آن، که در اصل از همه چیز گیج شده بودند، از توییتر برای توضیح استفاده کردند. الگوریتم به طور مکرر با تصاویر مختلف تست شد، اما هیچ‌کس به آزمایش درباره اینکه آیا می‌تواند نژادپرستانه باشد یا نه فکر نمی‌کرد، چون این یک نتیجه مطلوب یا قابل‌قبول نبود. برای هر کسی (مانند من) که با شرکت در تماس بوده و یا شخصا برخی از بنیانگذاران و مدیران آن را می‌شناسد، تمام ابن حرف‌ها بی‌معنی است: توییتر، نژادپرست؟ غیر ممکن است.

ظاهرا، برخی از متغیرهای پنهان در داده‌های استفاده‌شده برای آموزش الگوریتم، با کمک مجموعه پیچیده وزن‌ها و ترکیب‌های متغیر، مقصر شناخته شدند. مشکل این است که تجزیه و تحلیل این که کدام متغیر، کدام وزن، یا هر چیزی که باعث این رفتار الگوریتم شده، اصلا واضح نیست. الگوریتم‌های این نوع به طور کلی تمایل به گروه‌بندی ترکیبی از متغیرها با همبستگی بالا دارند و آن‌ها را شاخص‌هایی در نظر می‌گیرند که به عنوان متغیرهای پنهان در برخی رویه‌های روش‌های ریاضی بسیار پیچیده استفاده می‌شوند، که گاهی اوقات منجر به دشواری در درک منشا تعصب و جانبداری می‌شود. این امکان وجود دارد که مجموعه‌ای از تصاویر که الگوریتم با آن‌ها آموزش داده شد، حاوی تعداد بیشتری از تصاویر افراد سفید پوست نسبت به سیاه پوستان باشد، و این اثر به سادگی در آزمون‌هایی که با الگوریتم قبل از انتشار آن انجام شده‌بود، تشخیص داده نشد.

چگونه با مشکلی از این نوع برخورد می‌کنید؟ مساله اساسی، البته، شفاف بودن است: نتیجه عمدی نیست، بلکه ناشی از نوعی مشکل در توسعه الگوریتم است، و هر چه سریع‌تر حل خواهد شد. اگر بتوانید آن را به روی عموم باز کنید تا توسط افراد بیشتری بررسی شوند، قطعا شانس بیشتری برای درک آنچه که قبلا اتفاق‌افتاده است خواهید داشت و زودتر آن را اصلاح خواهید کرد. ضروری است که درک کنیم که این امر می‌تواند تقریبا در هر زمینه‌ای، تقریبا در هر زمانی، معمولا در اوایل استفاده از الگوریتم رخ دهد، که هیچ یک از آن‌ها یادگیری ماشین را تضعیف نمی‌کند، و به سادگی نیاز به یک دوره آموزش طولانی‌تر را برجسته می‌کند.

این شرکت همچنین در حال برنامه‌ریزی برای ارائه کنترل بیشتر بر روی چگونگی ظاهر شدن تصاویر خود در یک توئیت است، و چندین گزینه و احتمال را برای انجام این کار امتحان خواهد کرد. در این لحظه، احتمالا منطقی است که به کاربران اجازه دهیم تصمیم بگیرند؛ حداقل تا زمانی که الگوریتم به خوبی آموزش داده شود.

بهترین راه برای درک الگوریتم یادگیری ماشین، درک چگونگی کارکرد یادگیری ماشین و الگوریتم های آن است. پتانسیل آن‌ها بسیار زیاد است، اما به نظارت کامل نیاز دارند. اتفاقی که برای توییتر افتاد برای کمک به درک این موضوع عالی است. اما اجازه دهید برای بدترین حالت آماده باشیم، زیرا ما قطعا جانبداری‌ها و بایاس‌های بیشتری مانند اینها را در بسیاری از الگوریتم‌های دیگر در بسیاری از مکان‌های دیگر در آینده قابل‌پیش‌بینی کشف خواهیم کرد.

این متن با استفاده از ربات ترجمه تخصصی و خودکار مقالات یادگیری ماشین ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.