روند کلی پذیرش تشخیص چهره می‌تواند عواقب بدی داشته باشد

منتشر شده در thenextweb به تاریخ ۲۰ دسامبر ۲۰۲۱
لینک منبع Mainstream adoption of facial recognition can have sinister consequences

در ۱۴ دسامبر، دولت‌های بریتیش کلمبیا، آلبرتا و کبک به شرکت شناسایی چهره کلیروسکوپی AI دستور دادند تا جمع‌آوری-و حذف-تصاویر افراد به‌دست‌آمده بدون رضایت آن‌ها را متوقف کند. بحث‌ها در مورد خطرات سیستم‌های تشخیص چهره که بر فن‌آوری‌های تحلیل چهره خودکار تکیه می‌کنند، بر شرکت‌ها، دولت‌های ملی و اجرای قانون تمرکز می‌کنند. اما آنچه که بسیار مورد توجه است، روش‌هایی است که در آن شناخت چهره و تجزیه و تحلیل در زندگی روزمره ما ادغام شده‌اند.

آمازون، مایکروسافت و آی‌بی‌ام ارائه سیستم‌های تشخیص چهره به ادارات پلیس را متوقف کرده‌اند، زیرا مطالعات نشان می‌دهد سوگیری الگوریتمی به‌طور نامتناسبی افراد رنگین‌پوست، به‌ویژه سیاه‌پوستان را شناسایی نمی‌کند.

فیس‌بوک و Clearview AI با شکایت‌ها و تسویه‌حساب‌ها برای ساخت پایگاه‌های اطلاعاتی میلیاردها قالب چهره بدون رضایت مردم سر و کار داشته‌اند.

در انگلستان، پلیس برای استفاده از تشخیص چهره در لحظه در فضاهای عمومی با بررسی دقیق روبرو می‌شود. دولت چین جمعیت اقلیت اویغور خود را از طریق فن‌آوری‌های اسکن چهره ردیابی می‌کند.

و با این حال، برای درک دامنه و پیامدهای این سیستم‌ها، ما باید به شیوه‌های اتفاقی کاربران روزمره که از اسکن چهره و تجزیه و تحلیل به روش‌های معمول که به از بین رفتن حریم خصوصی و افزایش تبعیض اجتماعی و نژاد پرستی کمک می‌کند، توجه کنیم.

به‌عنوان پژوهشگر شیوه‌های بصری رسانه‌های تلفن همراه و پیوندهای تاریخی آن‌ها با نابرابری اجتماعی، من مرتباً بررسی می‌کنم که چگونه اقدامات کاربر می‌تواند هنجارهایی را پیرامون موضوعاتی مانند حریم خصوصی و هویت ایجاد یا تغییر دهد. در این راستا، پذیرش و استفاده از سیستم‌ها و محصولات آنالیز چهره در زندگی روزمره ما ممکن است به نقطه اوج خطرناکی برسد.

اسکن‌های چهره روزمره

الگوریتم‌های منبع باز که ویژگی‌های چهره را شناسایی می‌کنند، تجزیه و تحلیل یا تشخیص چهره را به یک افزونه آسان برای توسعه‌دهندگان اپلیکیشن تبدیل می‌کنند. ما در حال حاضر از تشخیص چهره برای باز کردن تلفن‌های خود و یا پرداخت پول برای کالاها استفاده می‌کنیم. دوربین‌های ویدئویی ترکیب‌شده در خانه‌های هوشمند از تشخیص چهره برای شناسایی بازدیدکنندگان و همچنین شخصی‌سازی نمایشگرهای صفحه نمایش و یادآورهای صوتی استفاده می‌کنند. ویژگی فوکوس خودکار بر روی دوربین‌های تلفن همراه شامل تشخیص چهره و ردیابی است، در حالی که ذخیره‌سازی عکس ابری با انطباق و گروه‌بندی چهره‌ها در تصاویری که ما می‌گیریم، آلبوم‌ها و اسلایدهای موضوعی تولید می‌کند.

تحلیل چهره توسط بسیاری از اپلیکیشن‌ها از جمله فیلترهای رسانه‌های اجتماعی و لوازم جانبی استفاده می‌شود که اثراتی مانند پیری مصنوعی و متحرک کردن ویژگی‌های صورت را ایجاد می‌کنند. برنامه‌های خود-اصلاحی و پیش‌بینی زیبایی، طالع‌بینی، و یا تشخیص قومیت نیز توصیه‌ها و نتیجه‌گیری براساس اسکن صورت ایجاد می‌کنند.

اما استفاده از سیستم‌های تجزیه و تحلیل چهره برای فال، سلفی، یا شناسایی افرادی که در پله‌های جلوی درب ما قرار دارند می‌تواند پیامدهای اجتماعی بلندمدتی داشته باشد: آنها می‌توانند نظارت و ردیابی در مقیاس بزرگ را تسهیل کنند و در عین حال نابرابری اجتماعی سیستمی را حفظ کنند.

خطرات جانبی

هنگامی که در طول زمان تکرار می‌شود، چنین استفاده‌های کم هزینه و پاداش سریع می‌تواند ما را به اسکن چهره به طور کلی ترغیب کند و در را به روی سیستم‌های گسترده‌تر در زمینه‌های مختلف باز کند. ما هیچ کنترلی بر اینکه چه کسی این سیستم‌ها را اداره می‌کند و داده‌ها چگونه استفاده می‌شوند نداریم.

اگر ما در حال حاضر چهره‌های خود را در معرض بررسی دقیق خودکار قرار دهیم، نه تنها با رضایت بلکه با مشارکت فعال خود، بنابراین وقتی در حال عبور از فضاهای عمومی یا دسترسی به خدمات در معرض اسکن و تحلیل مشابه قرار می‌گیریم ممکن است این کار به طور خاص مزاحم به نظر نرسد.

علاوه بر این، استفاده شخصی ما از فن‌آوری‌های تجزیه و تحلیل چهره به طور مستقیم به توسعه و اجرای سیستم‌های بزرگ‌تر به منظور ردیابی جمعیت، رتبه‌بندی مشتریان، یا توسعه استخرهای مشکوک برای تحقیقات کمک می‌کند. شرکت‌ها می‌توانند داده‌هایی را جمع‌آوری کرده و به اشتراک بگذارند که تصاویر شما را به هویت شما ربط دهد و یا برای مجموعه‌های داده بزرگ‌تری که برای آموزش سیستم‌های هوش مصنوعی برای تشخیص چهره یا احساسات استفاده می‌شود، به اشتراک بگذارند.

حتی اگر پلت‌فرمی که ما استفاده می‌کنیم چنین استفاده‌هایی را محدود کند، محصولات شریک ممکن است از همان محدودیت‌ها پیروی نکنند. توسعه پایگاه‌های اطلاعاتی جدید افراد خصوصی می‌تواند سودآور باشد، به‌ویژه زمانی که این پایگاه‌های اطلاعاتی می‌توانند چندین تصویر چهره از هر کاربر را شامل شوند یا می‌توانند تصاویر را با اطلاعات شناسایی، مانند نام حساب‌ها مرتبط کنند.

پروفایل‌های دیجیتال شبه علمی

اما شاید نگران‌کننده‌تر از همه، استقبال فزاینده ما از فناوری‌های تحلیل چهره به چگونگی تعیین هویت یک فرد، بلکه پیشینه، شخصیت و ارزش اجتماعی آن‌ها نیز کمک می‌کند.

این سیستم‌های مرتبط به درجات مختلفی از تجزیه و تحلیل چهره برای توجیه سلسله‌مراتب نژادی، استعمار، برده‌داری، عقیم‌سازی اجباری و حبس پیشگیرانه وابسته هستند. بسیاری از برنامه‌های پیش‌بینی و تشخیصی که چهره‌های ما را اسکن می‌کنند تا قومیت، زیبایی، سلامتی، احساسات و حتی قدرت درآمدزایی بالقوه ما را تعیین کنند، بر اساس شبه‌علوم تاریخی آزاردهنده فرنولوژی، فیزیوگنومی و اصلاح نژاد ساخته شده‌اند.

استفاده ما از فن‌آوری‌های تجزیه و تحلیل چهره می‌تواند این باورها و تعصبات را تداوم بخشد، که دلالت بر این دارد که آن‌ها یک جایگاه مشروع در جامعه دارند. سپس این همدستی می‌تواند سیستم‌های تحلیل خودکار مشابه چهره را برای استفاده‌هایی مانند غربالگری متقاضیان شغل یا تعیین جرم و جنایت توجیه کند.

ایجاد عادات بهتر

تنظیم نحوه جمع‌آوری، تفسیر و توزیع داده‌های بیومتریک توسط سیستم‌های تشخیص چهره، مطابق با استفاده روزمره ما از اسکن و تجزیه و تحلیل چهره نیست. در اروپا و بخش‌هایی از ایالات‌متحده پیشرفت‌هایی در سیاست صورت‌گرفته است، اما به مقررات بیشتری نیاز است.

علاوه بر این، ما باید با عادات و فرضیات خود مقابله کنیم. چگونه ممکن است با عادی‌سازی چنین بررسی‌های مبتنی بر ماشین، خود و دیگران، به ویژه جمعیت‌های به حاشیه رانده شده را در معرض خطر قرار دهیم؟

چند تنظیم ساده ممکن است به ما کمک کند تا با همسان‌سازی خزنده سیستم‌های تجزیه و تحلیل چهره در زندگی روزمره خود مقابله کنیم. یک شروع خوب این است که تنظیمات برنامه و دستگاه را تغییر دهید تا اسکن و اشتراک‌گذاری به حداقل برسد. قبل از دانلود برنامه‌ها، آن‌ها را بررسی کنید و شرایط استفاده را بخوانید.

در بر هیجان کوتاه‌مدت آخرین مد چهره رسانه‌های اجتماعی مقاومت کنید -آیا واقعا لازم است بدانیم که به عنوان شخصیت‌های پیکسار چگونه به نظر خواهیم رسید؟ دستگاه‌های هوشمند مجهز به فناوری‌های تشخیص چهره را بازنگری کنید. از حقوق کسانی که ممکن است تصویرشان در یک دستگاه خانه هوشمند گرفته شود آگاه باشید - همیشه باید رضایت صریح از هر کسی که از جلوی لنز عبور می‌کند دریافت کنید.

این تغییرات کوچک، اگر در بین کاربران، محصولات و پلتفرم‌ها چند برابر شود، می‌تواند از داده‌های ما محافظت کند و برای تأمل بیشتر در مورد خطرات، مزایا و به کارگیری منصفانه فناوری‌های تشخیص چهره، زمان بخرد.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.