ویرگول
ورودثبت نام
علی اکبر حسنوند
علی اکبر حسنوند
علی اکبر حسنوند
علی اکبر حسنوند
خواندن ۴ دقیقه·۶ ماه پیش

هوش مصنوعی، مختصری ایراد دارد یا نه

هرچه از خوبی های هوش مصنوعی بگویم کم گفته ام اما این هوش ها را باید با حواس جمع دنبال کرد مثلا منبع این هوشها را که در خواست می کنی از همین سایت های دور و بر خودمان پیدا می کنی . که بعضی منابع خودشان جای سوال دارند. در باره فلسفه و عرفان هم رویکرد خاص داردخخخخخ . باید باهاش کل کل کنی تا دقت کند در پاسخ ها

کاریکاتور اثر آقای کیوان زرگری است
کاریکاتور اثر آقای کیوان زرگری است

تانیا دوآرته : تانیا یکی از بنیانگذاران We and AI، یک سازمان غیرانتفاعی بریتانیایی است که بر عادلانه و مفید کردن فناوری برای همه تمرکز دارد. او عضو هیئت تحریریه Springer Nature AI و ... است. در زیر موارد ایشان را آورده ام تا غریب نباشم در این فضای مجازی

مروری بر مقررات پیشنهادی جدید هوش مصنوعی اتحادیه اروپا

مقررات پیشنهادی از یک سیستم مبتنی بر ریسک استفاده می‌کند که در آن سیستم‌هایی که «خطر غیرقابل قبولی» ایجاد می‌کنند، ممنوع می‌شوند. این سیستم‌ها شامل سیستم‌هایی هستند که رفتار را به گونه‌ای دستکاری می‌کنند که احتمالاً باعث آسیب جسمی یا روانی می‌شود، سیستم‌هایی که از کودکان سوءاستفاده می‌کنند، سیستم‌هایی که از «امتیازدهی اجتماعی» مانند آنچه در چین دیده می‌شود استفاده می‌کنند و استفاده از سیستم‌های شناسایی بیومتریک از راه دور «در زمان واقعی» (به جز تحت شرایط سخت).

سیستم‌های پرخطر شامل هوش مصنوعی در ماشین‌آلات، دستگاه‌های پزشکی و وسایل نقلیه، برای مدیریت زیرساخت‌های حیاتی، برای شناسایی و طبقه‌بندی بیومتریک افراد، برای اطلاع‌رسانی در مورد تصمیمات استخدام، ارزیابی نمرات اعتباری و سیستم‌هایی هستند که تأثیر نامطلوبی بر حقوق اساسی اتحادیه اروپا دارند. چنین سیستم‌هایی الزامات مختلفی از جمله داده‌های مورد استفاده، ثبت سوابق، نظارت، شفافیت، دقت و امنیت را باید برآورده کنند.

سیستم‌های کم‌خطر مانند چت‌بات‌ها تعهدات خاصی خواهند داشت. به عنوان مثال، آگاه کردن کاربران از اینکه با یک ماشین در تعامل هستند.

پیشنهادات اتحادیه اروپا از این جهت مهم هستند که برخی از مسائل بسیار پیچیده را هماهنگ می‌کنند و اولین گام قانونی را برمی‌دارند. با این وجود، برخی احساس می‌کنند که آنها به اندازه کافی پیش نمی‌روند. به عنوان مثال، محدودیت‌های آن در استفاده از شناسایی بیومتریک در برخی موارد ناکافی تلقی می‌شود.

ما و هوش مصنوعی به دنبال افزایش آگاهی و درک عمومی از خطرات و مزایای هوش مصنوعی هستیم. دکتر کلودین تینسمن، مشاور سیاست‌گذاری آن، خاطرنشان می‌کند که اگرچه ماده ۵ این آیین‌نامه استفاده از شناسایی بیومتریک از راه دور را در فضاهای عمومی ممنوع می‌کند، اما فقط در مورد سیستم‌های "بلادرنگ" مورد استفاده برای اهداف اجرای قانون اعمال می‌شود. این موضوع استفاده از تشخیص چهره "غیرزنده" برای پلیس را در بر نمی‌گیرد. برنامه‌های غیرزنده هنوز هم می‌توانند برای شناسایی افراد یا استفاده‌های دیگر توسط مقامات دولتی یا بازیگران خصوصی استفاده شوند.

استثنائات دیگر به این معنی است که تشخیص چهره در زمان واقعی که برای شناسایی افرادی که مظنون به ورود یا زندگی در یک کشور عضو تحت شرایط نامنظم، مانند مهاجران و پناهندگان هستند، استفاده می‌شود را ممنوع نمی‌کند. تینسمن خاطرنشان می‌کند که بیش از ۶۰ سازمان غیردولتی از کمیسیون اروپا خواسته‌اند که استفاده از سیستم‌های هوش مصنوعی را برای شناسایی خودکار جنسیت و گرایش جنسی ممنوع کند. چنین ممنوعیتی در پیش‌نویس آیین‌نامه گنجانده نشده است. همچنین ممنوعیتی برای استفاده از فناوری بیومتریک برای اهدافی غیر از تشخیص، مانند سنجش احساسات وجود نداشت .

هوش مصنوعی سنجش احساسات

اخیراً ادعاهایی مبنی بر استفاده دولت چین از اویغورها به عنوان سوژه‌های آزمایشی از پیش قضاوت شده برای برنامه‌های سنجش احساسات هوش مصنوعی غیرمعتبر وجود داشته است. این برنامه‌ها مانند دستگاه‌های دروغ‌سنج آموزش دیده برای تشخیص و تشخیص تغییرات جزئی در منافذ پوست و حرکات صورت استفاده می‌شوند.

سیستم‌های هوش مصنوعی که ارتعاشات سر افراد را برای تعیین حالات ذهنی و عاطفی تجزیه و تحلیل می‌کنند، در رویدادهایی مانند جام جهانی و بازی‌های المپیک مورد استفاده قرار گرفته‌اند. سیستم‌های مشابهی برای تشخیص فریب در مرزهای ایالات متحده و اتحادیه اروپا استفاده شده‌اند، علیرغم نگرانی‌ها در مورد فقدان هرگونه شواهد معتبری در مورد دقت آنها. طبق قوانین جدید اتحادیه اروپا، چنین سیستم‌های تشخیص احساسات پرخطر تلقی می‌شوند، اما ممنوع نیستند.

تینسمن نتیجه می‌گیرد که اگرچه این مقررات گامی در مسیر درست است، اما نقاط ضعف آن نگران‌کننده است: «به‌طور خاص، سیستم‌های تشخیص چهره علیه اقلیت‌ها جانبدارانه عمل می‌کنند، بنابراین باز گذاشتن در برای استفاده از آنها در مقیاس بزرگ می‌تواند به‌طور نامتناسبی بر اقلیت‌ها تأثیر بگذارد.»

در واقع، پیش از این نیز بررسی دقیقی در مورد تشخیص چهره مورد استفاده مقامات دولتی در بریتانیا انجام شده است. ولز جنوبی پلیس با موفقیت به دلیل استفاده غیرقانونی به دلایل حقوق بشری به چالش کشیده شد. چندین سازمان برای حفاظت از حقوق بسیج شده‌اند. در We and AI، رویکرد ما افزایش سواد و آگاهی از هوش مصنوعی بوده است تا بتوان حقوق را درک کرد .

هوش مصنوعیاتحادیه اروپاتشخیص چهره
۱
۰
علی اکبر حسنوند
علی اکبر حسنوند
شاید از این پست‌ها خوشتان بیاید