با استفاده از الگوریتم های هوش مصنوعی برای تصمیم گیری در تغییر زندگی در زمینه هایی مانند استخدام ، اجرای قانون و امور مالی ، توجه به سوگیری الگوریتمی مهم است تا اطمینان حاصل شود جامعه طعمه تصمیمات نادرست و نامناسب نمی شود که با داده های نادرست و نادرست ارائه می شوند.
در بخشهایی که دنبال می کنید ، این فرصت را خواهید داشت که با مثالهای خاصی از تعصب الگوریتمی در بخشها و فناوریهای مختلف درگیر شوید.
استخدام
در سال 2014 ، آمازون شروع به استفاده از الگوریتمی برای بررسی CV )رزومه( برای تعیین استعدادهای برتر کرد. بسته به معیارهای خاصی ، از این الگوریتم برای رتبه بندی متقاضیان از یک تا پنج ستاره استفاده شد. یک سال بعد در سال 2015 ، آمازون استفاده از الگوریتم در استخدام را متوقف کرد زیرا به نظر می رسید جنسیست در توصیه خود از متقاضیان برای موقعیت های خاص است. به نظر می رسد دلیل تعصب این باشد که این الگوریتم با برنامه های شغلی عمدتا از نامزدهای مرد آموزش دیده است. اگر داده های گذشته افراد به عنوان داده های ورودی استفاده شود ، بی عدالتی آن در نهایت در آینده منتشر می شود ، و این امر باعث می شود که سوگیری جنسیتی و نژادی بر تصمیمات استخدام تأثیر بگذارد . اگر الگوریتمی آموزش داده شود تا معیارهایی را که بر مناسب بودن آنها تأثیر نمی گذارد، مانند نام یک نامزد ، تعصب را کاهش می دهد.
برای کسب اطلاعات بیشتر در مورد کاربرد AI در فرآیند استخدام ، فیلم زیر را تماشا کنید.
(لطفا برای تماشای فیلم ها به صفحه آکادمی مراجعه فرمایید)
اجرای قانون
جنبه های اجرای قانون به طور فزاینده ای به برنامه های هوش مصنوعی برای پردازش مقدار زیادی از اطلاعات موجود و تصمیم گیری های لازم سپرده می شوند . یکی از زمینه های کاربرد هوش مصنوعی در اجرای قانون ، تقاضای آزادی مشروط است. مسئله این است که این الگوریتم ها با استفاده از داده های گذشته آموزش داده می شوند. بنابراین داده های گذشته گروه خاصی از افراد را بدون زمینه تغییراتی که از آن زمان در جامعه روی داده ، مورد توجه قرار می دهد. بنابراین افراد متقاضی آزادی مشروط با استفاده از داده های انحرافی اندازه گیری می شوند.
مثال داستانی زیر را در نظر بگیرید. شخص A در حال رانندگی با اتومبیلی است که در تیراندازی استفاده شده است. وقتی افسر پلیس متوجه شد این وسیله نقلیه ای است که به دنبالش بودند ، شروع به تعقیب می کند. شخص الف دور می شود اما سرانجام دستگیر می شود. پس از دستگیری ، شخص الف به اتهام فرار از افسر خود را گناهکار می داند. هنگام محکومیت ، قاضی پرونده با استفاده از یک نرم افزار هوش مصنوعی که برای اختصاص امتیاز به بزهکاران در دادگاه آموزش داده شده است ،تصمیم می گیرد که بر اساس احتمال تکرار رفتار مجرمانه توسط مجرم ، آموزش دیده است. برنامه هوش مصنوعی عوامل مختلفی را در نظر می گیرد ، از جمله عناصر جمعیتی و جغرافیایی پیرامون مجرم خاص. بر اساس نمره تخصیص داده شده به شخص الف ، قاضی حکمی را به میزان شش سال زندان تعیین می کند. این حکم فرجام خواهی است ، اما لغو نمی شود.
نظر شما در مورد کاربرد سیستم های AI در مواردی از این دست چیست؟ آیا هنگامی که در دادگاه محاکمه می شوید ، می خواهید توسط این نرم افزار رتبه بندی شوید؟
چه اتفاقی خواهد افتاد اگر نرم افزار تشخیص چهره که توسط پلیس در شهری مستقر شده است ، فردی را به عنوان یک مجرم خشن شناسایی کند و منجر به دستگیری آن فرد در حالی که در یک ناهار تجاری با مشتریان و همکاران برجسته خود بوده است ، باشد؟ آیا استفاده از نرم افزاری که منجر به دستگیری نادرست شود ، اخلاقی است؟
این نگرانی وجود دارد که الگوریتم ها بخاطر داده های آموزشی استفاده شده برای آموزش آن ها ، تمایل به تعصب نژادی دارند. به عنوان مثال ، یک الگوریتم ممکن است نشان دهد که در یک محله عمدتا آفریقایی آمریکایی میزان جرم و جنایت بالاتری وجود دارد ، اما دلیل آن ممکن است صرفاً این باشد که بازداشت ها در گذشته مغرضانه بوده است. داده های معمولی که این الگوریتم ها به آنها اعتماد می کنند شامل سوابق دستگیری ، کد پستی ، روابط اجتماعی و درآمد است که اغلب از نظر نژادی کدگذاری می شوند و منجر به تصمیمی می شود که بالقوه نادرست است.
حتی اگر این فناوری (فناوری تشخیص چهره) برای جامعه مفید باشد ، تعصب الگوریتمی این توانایی را دارد که در زندگی افراد تأثیر منفی بگذارد ، درصورتی که این برنامه ها پیش بینی های نادرستی انجام دهند و در نتیجه نابرابری های نژادی ایجاد شود. به همین دلیل ، بسیار مهم است که محدودیت های این فناوری در نظر گرفته شود.
فیلم زیر را تماشا کنید ، که نشان می دهد چگونه اداره پلیس سانتا کروز ایالات متحده هوش مصنوعی را برای کمک به کاهش جرایم اعمال می کند.
تشخیص چهره
در سال 2015 ، Google برنامه جدید Photos خود را راه اندازی کرد که تصاویر کاربران را بر اساس اشیا موجود در تصاویر طبقه بندی می کند و آنها را در پوشه های جداگانه ذخیره می کند. ایده این بود که الگوریتم هنگام دریافت اطلاعات بیشتر یاد می گیرد.
بلافاصله پس از راه اندازی ، گوگل مجبور شد این واقعیت را توضیح دهد که نرم افزار تشخیص تصویر آنها افراد آفریقایی آمریکایی را به طور نادرست به عنوان گوریل شناسایی می کند. افراد تحت تأثیر این الگوریتم توضیحاتی را از Google درخواست کردند تا توضیح دهد چه مجموعه داده های آموزشی برای آموزش آن استفاده می شود. گوگل که از این خطا وحشت زده شده بود ، با برداشتن برچسب گوریل ، همراه با برچسب های شامپانزه و میمون پاسخ داد.
این مسئله به یکی از سه مشکل هوش مصنوعی یعنی همانند سازی بازمی گردد ، از این رو Google قادر به شناسایی دلیل اینکه الگوریتم آن دسته بندی خاص افراد را در عکس کرده است نبود. اگر برنامه نویسان نتوانند توضیح دهند که چرا الگوریتم تصمیمات خاصی را اتخاذ می کند ، استقرار نرم افزار مشابه با وسایل نقلیه خودمختار با توجه به نادرست بودن در شناسایی انسان ها ، چقدر ایمن است ؟
فقط گوگل نبود که توضیحاتی برای انجام این کار ارائه می داد. فلیکر همچنین فناوری را توسعه داده است که به عنوان ماده قفقازی و یک مرد آفریقایی آمریکایی به عنوان میمون شناخته شده است. پاسخ فلیکر این بود که الگوریتم ها صرفاً اشکال ، رنگها و الگوها را مشخص می کنند تا به نتیجه ای برسند که تصویر نشان می دهد ، که اثبات شده است انجام کار برای ماشین آلات بسیار پیچیده تر از انسان است. حتی دوربین های تشخیص چهره نیکون به دلیل عدم توانایی در تشخیص افراد آفریقایی آمریکایی به تعصب نژادی متهم شدند. این دوربین همچنین به اشتباه متوجه شد که کاربران هنگام عکسبرداری از افراد آسیایی چشمک می زنند.
بعدها گوگل از کاربران خود معذرت خواهی کرد و فیلم مربوط به این خطا از صفحات اجتماعی حذف شد.
توجه به این نکته مهم است که سیستم ها و برنامه های موجود در دسترس مردم معمولاً بیشتر در معرض عدم دقت هستند. هدف اصلی آنها جمع آوری داده ها و نه لزوماً ارائه خدمات خاص حل مسئله است و در نتیجه دقت می تواند کمتر باشد. بنابراین جامعه باید مراقب سیستم های مختلفی باشد که برای حل مشکلات خاص استفاده می شود.
برای بهبود نرم افزار شناسایی تصویر هنوز هم باید کارهای عظیمی انجام شود . به ویژه بسیار دشوار است که یک الگوریتم را بی طرفانه تربیت کرد ، بدون اینکه تنوعی در روند آموزش لحاظ شود.
تشخیص صدا
https://mindmover.academy/ai-ethics/