من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
روند کلی پذیرش تشخیص چهره میتواند عواقب بدی داشته باشد
منتشر شده در thenextweb به تاریخ ۲۰ دسامبر ۲۰۲۱
لینک منبع Mainstream adoption of facial recognition can have sinister consequences
در ۱۴ دسامبر، دولتهای بریتیش کلمبیا، آلبرتا و کبک به شرکت شناسایی چهره کلیروسکوپی AI دستور دادند تا جمعآوری-و حذف-تصاویر افراد بهدستآمده بدون رضایت آنها را متوقف کند. بحثها در مورد خطرات سیستمهای تشخیص چهره که بر فنآوریهای تحلیل چهره خودکار تکیه میکنند، بر شرکتها، دولتهای ملی و اجرای قانون تمرکز میکنند. اما آنچه که بسیار مورد توجه است، روشهایی است که در آن شناخت چهره و تجزیه و تحلیل در زندگی روزمره ما ادغام شدهاند.
آمازون، مایکروسافت و آیبیام ارائه سیستمهای تشخیص چهره به ادارات پلیس را متوقف کردهاند، زیرا مطالعات نشان میدهد سوگیری الگوریتمی بهطور نامتناسبی افراد رنگینپوست، بهویژه سیاهپوستان را شناسایی نمیکند.
فیسبوک و Clearview AI با شکایتها و تسویهحسابها برای ساخت پایگاههای اطلاعاتی میلیاردها قالب چهره بدون رضایت مردم سر و کار داشتهاند.
در انگلستان، پلیس برای استفاده از تشخیص چهره در لحظه در فضاهای عمومی با بررسی دقیق روبرو میشود. دولت چین جمعیت اقلیت اویغور خود را از طریق فنآوریهای اسکن چهره ردیابی میکند.
و با این حال، برای درک دامنه و پیامدهای این سیستمها، ما باید به شیوههای اتفاقی کاربران روزمره که از اسکن چهره و تجزیه و تحلیل به روشهای معمول که به از بین رفتن حریم خصوصی و افزایش تبعیض اجتماعی و نژاد پرستی کمک میکند، توجه کنیم.
بهعنوان پژوهشگر شیوههای بصری رسانههای تلفن همراه و پیوندهای تاریخی آنها با نابرابری اجتماعی، من مرتباً بررسی میکنم که چگونه اقدامات کاربر میتواند هنجارهایی را پیرامون موضوعاتی مانند حریم خصوصی و هویت ایجاد یا تغییر دهد. در این راستا، پذیرش و استفاده از سیستمها و محصولات آنالیز چهره در زندگی روزمره ما ممکن است به نقطه اوج خطرناکی برسد.
اسکنهای چهره روزمره
الگوریتمهای منبع باز که ویژگیهای چهره را شناسایی میکنند، تجزیه و تحلیل یا تشخیص چهره را به یک افزونه آسان برای توسعهدهندگان اپلیکیشن تبدیل میکنند. ما در حال حاضر از تشخیص چهره برای باز کردن تلفنهای خود و یا پرداخت پول برای کالاها استفاده میکنیم. دوربینهای ویدئویی ترکیبشده در خانههای هوشمند از تشخیص چهره برای شناسایی بازدیدکنندگان و همچنین شخصیسازی نمایشگرهای صفحه نمایش و یادآورهای صوتی استفاده میکنند. ویژگی فوکوس خودکار بر روی دوربینهای تلفن همراه شامل تشخیص چهره و ردیابی است، در حالی که ذخیرهسازی عکس ابری با انطباق و گروهبندی چهرهها در تصاویری که ما میگیریم، آلبومها و اسلایدهای موضوعی تولید میکند.
تحلیل چهره توسط بسیاری از اپلیکیشنها از جمله فیلترهای رسانههای اجتماعی و لوازم جانبی استفاده میشود که اثراتی مانند پیری مصنوعی و متحرک کردن ویژگیهای صورت را ایجاد میکنند. برنامههای خود-اصلاحی و پیشبینی زیبایی، طالعبینی، و یا تشخیص قومیت نیز توصیهها و نتیجهگیری براساس اسکن صورت ایجاد میکنند.
اما استفاده از سیستمهای تجزیه و تحلیل چهره برای فال، سلفی، یا شناسایی افرادی که در پلههای جلوی درب ما قرار دارند میتواند پیامدهای اجتماعی بلندمدتی داشته باشد: آنها میتوانند نظارت و ردیابی در مقیاس بزرگ را تسهیل کنند و در عین حال نابرابری اجتماعی سیستمی را حفظ کنند.
خطرات جانبی
هنگامی که در طول زمان تکرار میشود، چنین استفادههای کم هزینه و پاداش سریع میتواند ما را به اسکن چهره به طور کلی ترغیب کند و در را به روی سیستمهای گستردهتر در زمینههای مختلف باز کند. ما هیچ کنترلی بر اینکه چه کسی این سیستمها را اداره میکند و دادهها چگونه استفاده میشوند نداریم.
اگر ما در حال حاضر چهرههای خود را در معرض بررسی دقیق خودکار قرار دهیم، نه تنها با رضایت بلکه با مشارکت فعال خود، بنابراین وقتی در حال عبور از فضاهای عمومی یا دسترسی به خدمات در معرض اسکن و تحلیل مشابه قرار میگیریم ممکن است این کار به طور خاص مزاحم به نظر نرسد.
علاوه بر این، استفاده شخصی ما از فنآوریهای تجزیه و تحلیل چهره به طور مستقیم به توسعه و اجرای سیستمهای بزرگتر به منظور ردیابی جمعیت، رتبهبندی مشتریان، یا توسعه استخرهای مشکوک برای تحقیقات کمک میکند. شرکتها میتوانند دادههایی را جمعآوری کرده و به اشتراک بگذارند که تصاویر شما را به هویت شما ربط دهد و یا برای مجموعههای داده بزرگتری که برای آموزش سیستمهای هوش مصنوعی برای تشخیص چهره یا احساسات استفاده میشود، به اشتراک بگذارند.
حتی اگر پلتفرمی که ما استفاده میکنیم چنین استفادههایی را محدود کند، محصولات شریک ممکن است از همان محدودیتها پیروی نکنند. توسعه پایگاههای اطلاعاتی جدید افراد خصوصی میتواند سودآور باشد، بهویژه زمانی که این پایگاههای اطلاعاتی میتوانند چندین تصویر چهره از هر کاربر را شامل شوند یا میتوانند تصاویر را با اطلاعات شناسایی، مانند نام حسابها مرتبط کنند.
پروفایلهای دیجیتال شبه علمی
اما شاید نگرانکنندهتر از همه، استقبال فزاینده ما از فناوریهای تحلیل چهره به چگونگی تعیین هویت یک فرد، بلکه پیشینه، شخصیت و ارزش اجتماعی آنها نیز کمک میکند.
این سیستمهای مرتبط به درجات مختلفی از تجزیه و تحلیل چهره برای توجیه سلسلهمراتب نژادی، استعمار، بردهداری، عقیمسازی اجباری و حبس پیشگیرانه وابسته هستند. بسیاری از برنامههای پیشبینی و تشخیصی که چهرههای ما را اسکن میکنند تا قومیت، زیبایی، سلامتی، احساسات و حتی قدرت درآمدزایی بالقوه ما را تعیین کنند، بر اساس شبهعلوم تاریخی آزاردهنده فرنولوژی، فیزیوگنومی و اصلاح نژاد ساخته شدهاند.
استفاده ما از فنآوریهای تجزیه و تحلیل چهره میتواند این باورها و تعصبات را تداوم بخشد، که دلالت بر این دارد که آنها یک جایگاه مشروع در جامعه دارند. سپس این همدستی میتواند سیستمهای تحلیل خودکار مشابه چهره را برای استفادههایی مانند غربالگری متقاضیان شغل یا تعیین جرم و جنایت توجیه کند.
ایجاد عادات بهتر
تنظیم نحوه جمعآوری، تفسیر و توزیع دادههای بیومتریک توسط سیستمهای تشخیص چهره، مطابق با استفاده روزمره ما از اسکن و تجزیه و تحلیل چهره نیست. در اروپا و بخشهایی از ایالاتمتحده پیشرفتهایی در سیاست صورتگرفته است، اما به مقررات بیشتری نیاز است.
علاوه بر این، ما باید با عادات و فرضیات خود مقابله کنیم. چگونه ممکن است با عادیسازی چنین بررسیهای مبتنی بر ماشین، خود و دیگران، به ویژه جمعیتهای به حاشیه رانده شده را در معرض خطر قرار دهیم؟
چند تنظیم ساده ممکن است به ما کمک کند تا با همسانسازی خزنده سیستمهای تجزیه و تحلیل چهره در زندگی روزمره خود مقابله کنیم. یک شروع خوب این است که تنظیمات برنامه و دستگاه را تغییر دهید تا اسکن و اشتراکگذاری به حداقل برسد. قبل از دانلود برنامهها، آنها را بررسی کنید و شرایط استفاده را بخوانید.
در بر هیجان کوتاهمدت آخرین مد چهره رسانههای اجتماعی مقاومت کنید -آیا واقعا لازم است بدانیم که به عنوان شخصیتهای پیکسار چگونه به نظر خواهیم رسید؟ دستگاههای هوشمند مجهز به فناوریهای تشخیص چهره را بازنگری کنید. از حقوق کسانی که ممکن است تصویرشان در یک دستگاه خانه هوشمند گرفته شود آگاه باشید - همیشه باید رضایت صریح از هر کسی که از جلوی لنز عبور میکند دریافت کنید.
این تغییرات کوچک، اگر در بین کاربران، محصولات و پلتفرمها چند برابر شود، میتواند از دادههای ما محافظت کند و برای تأمل بیشتر در مورد خطرات، مزایا و به کارگیری منصفانه فناوریهای تشخیص چهره، زمان بخرد.
این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
تویوتا عقبنشینی میکند و خط تولید خودروهای برقی را دو برابر میکند
مطلبی دیگر از این انتشارات
به سوی طراحی انسانمحور برای چارچوبهای یادگیری ماشین
مطلبی دیگر از این انتشارات
توصیههای سازمان بهداشت جهانی درمورد انتقال کروناویروس از حیوان به انسان