من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
الگوریتمهای جانبدارانه: آیا کسی باور دارد که توییتر نژادپرست است؟
منتشرشده در مجله Forbes به تاریخ ۳ اکتبر ۲۰۲۰
لینک مقاله اصلی: Biased Algorithms: Does Anybody Believe Twitter Is Racist?
با توجه به وضعیت فعلی در ایالاتمتحده، که در آن نژادپرستی در اخبار بسیار زیاد است، پاسخ به الگوریتم توییتر برای متمرکز کردن تصاویر در توییت ها، ارزش بررسی دقیقتر را دارد و یک مساله بسیار تفرقهانداز را اثبات میکند.
هدف از الگوریتم توییتر، در اصل، بسیار ساده است: وقتی کسی از یک تصویر در توئیت استفاده میکند که نمیتواند به طور کامل نشان داده شود، بخشی از آن که در زمان نمایش توییت در تایملاین کاربر نشان داده میشود، سعی میکند تا بهترین معنی ممکن از آن را برداشت کرده یا مفهوم آن را به بهترین نحو ممکن خلاصه کند.
برای انجام این کار، الگوریتم تمایل دارد بخشهایی از تصویر را انتخاب کند، برای مثال، جایی که یک متن یا یک صورت را تشخیص میدهد، به طور منطقی تمایل دارد که بر روی آن تمرکز کند. تا حالا خیلی خوب بود.
مشکل زمانی بروز پیدا میکند که مردم متوجه میشوند الگوریتم تقریبا همیشه بین یک صورت سفید و یک صورت سیاه، صورت سفید را انتخاب میکند. خودتان آن را امتحان کنید: دو صورت، یک صورت سفید و یک سیاه را به اندازه کافی از هم جدا کنید که نتوانند همزمان نشان داده شوند، سپس آن را توییت کنید، و نتیجه را ببینید.
همین امر در مورد سگها و شخصیتهای کارتونی نیز صادق است. مهم نیست تصویر سیاه یا سفید شخص در کدام طرف است: چپ، راست، بالا، پایین … الگوریتم همیشه عکس فرد سفید پوست را انتخاب میکند. پسزمینه؟ به نظر نمیرسد که تفاوت زیادی ایجاد کند - بزرگسالان یا کودکان؟ نه. همه چیز نشان میدهد که الگوریتم توییتر، به دلایلی نژادپرستانه است.
بدیهی است که این نتیجه اولیه، مانند بسیاری دیگر، کاملا اشتباه است. برای هر کسی که حتی کوچکترین دانشی از توییتر دارد یا با مدیران آن ارتباط داشتهاست، این ایده که این سازمان نژادپرستانه است، کاملا بیمعنی است. هر چه باشد، الگوریتمها تنها دادههای استفادهشده برای آموزش آنها را منعکس میکنند و اغلب در الگوهایی منعکس میشوند که در ابتدا دیده نمیشوند. با وحشت زدگی، واکنش شرکت شفاف است و برخی از مدیران آن، که در اصل از همه چیز گیج شده بودند، از توییتر برای توضیح استفاده کردند. الگوریتم به طور مکرر با تصاویر مختلف تست شد، اما هیچکس به آزمایش درباره اینکه آیا میتواند نژادپرستانه باشد یا نه فکر نمیکرد، چون این یک نتیجه مطلوب یا قابلقبول نبود. برای هر کسی (مانند من) که با شرکت در تماس بوده و یا شخصا برخی از بنیانگذاران و مدیران آن را میشناسد، تمام ابن حرفها بیمعنی است: توییتر، نژادپرست؟ غیر ممکن است.
ظاهرا، برخی از متغیرهای پنهان در دادههای استفادهشده برای آموزش الگوریتم، با کمک مجموعه پیچیده وزنها و ترکیبهای متغیر، مقصر شناخته شدند. مشکل این است که تجزیه و تحلیل این که کدام متغیر، کدام وزن، یا هر چیزی که باعث این رفتار الگوریتم شده، اصلا واضح نیست. الگوریتمهای این نوع به طور کلی تمایل به گروهبندی ترکیبی از متغیرها با همبستگی بالا دارند و آنها را شاخصهایی در نظر میگیرند که به عنوان متغیرهای پنهان در برخی رویههای روشهای ریاضی بسیار پیچیده استفاده میشوند، که گاهی اوقات منجر به دشواری در درک منشا تعصب و جانبداری میشود. این امکان وجود دارد که مجموعهای از تصاویر که الگوریتم با آنها آموزش داده شد، حاوی تعداد بیشتری از تصاویر افراد سفید پوست نسبت به سیاه پوستان باشد، و این اثر به سادگی در آزمونهایی که با الگوریتم قبل از انتشار آن انجام شدهبود، تشخیص داده نشد.
چگونه با مشکلی از این نوع برخورد میکنید؟ مساله اساسی، البته، شفاف بودن است: نتیجه عمدی نیست، بلکه ناشی از نوعی مشکل در توسعه الگوریتم است، و هر چه سریعتر حل خواهد شد. اگر بتوانید آن را به روی عموم باز کنید تا توسط افراد بیشتری بررسی شوند، قطعا شانس بیشتری برای درک آنچه که قبلا اتفاقافتاده است خواهید داشت و زودتر آن را اصلاح خواهید کرد. ضروری است که درک کنیم که این امر میتواند تقریبا در هر زمینهای، تقریبا در هر زمانی، معمولا در اوایل استفاده از الگوریتم رخ دهد، که هیچ یک از آنها یادگیری ماشین را تضعیف نمیکند، و به سادگی نیاز به یک دوره آموزش طولانیتر را برجسته میکند.
این شرکت همچنین در حال برنامهریزی برای ارائه کنترل بیشتر بر روی چگونگی ظاهر شدن تصاویر خود در یک توئیت است، و چندین گزینه و احتمال را برای انجام این کار امتحان خواهد کرد. در این لحظه، احتمالا منطقی است که به کاربران اجازه دهیم تصمیم بگیرند؛ حداقل تا زمانی که الگوریتم به خوبی آموزش داده شود.
بهترین راه برای درک الگوریتم یادگیری ماشین، درک چگونگی کارکرد یادگیری ماشین و الگوریتم های آن است. پتانسیل آنها بسیار زیاد است، اما به نظارت کامل نیاز دارند. اتفاقی که برای توییتر افتاد برای کمک به درک این موضوع عالی است. اما اجازه دهید برای بدترین حالت آماده باشیم، زیرا ما قطعا جانبداریها و بایاسهای بیشتری مانند اینها را در بسیاری از الگوریتمهای دیگر در بسیاری از مکانهای دیگر در آینده قابلپیشبینی کشف خواهیم کرد.
این متن با استفاده از ربات ترجمه تخصصی و خودکار مقالات یادگیری ماشین ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مطلبی دیگر از این انتشارات
آیا ترک سیگار میتواند مصرف الکل را کاهش دهد؟
مطلبی دیگر از این انتشارات
پیشپردازش دادههای متنی
مطلبی دیگر از این انتشارات
تصویرسازی داده تعاملی