هرچه از خوبی های هوش مصنوعی بگویم کم گفته ام اما این هوش ها را باید با حواس جمع دنبال کرد مثلا منبع این هوشها را که در خواست می کنی از همین سایت های دور و بر خودمان پیدا می کنی . که بعضی منابع خودشان جای سوال دارند. در باره فلسفه و عرفان هم رویکرد خاص داردخخخخخ . باید باهاش کل کل کنی تا دقت کند در پاسخ ها

تانیا دوآرته : تانیا یکی از بنیانگذاران We and AI، یک سازمان غیرانتفاعی بریتانیایی است که بر عادلانه و مفید کردن فناوری برای همه تمرکز دارد. او عضو هیئت تحریریه Springer Nature AI و ... است. در زیر موارد ایشان را آورده ام تا غریب نباشم در این فضای مجازی
مقررات پیشنهادی از یک سیستم مبتنی بر ریسک استفاده میکند که در آن سیستمهایی که «خطر غیرقابل قبولی» ایجاد میکنند، ممنوع میشوند. این سیستمها شامل سیستمهایی هستند که رفتار را به گونهای دستکاری میکنند که احتمالاً باعث آسیب جسمی یا روانی میشود، سیستمهایی که از کودکان سوءاستفاده میکنند، سیستمهایی که از «امتیازدهی اجتماعی» مانند آنچه در چین دیده میشود استفاده میکنند و استفاده از سیستمهای شناسایی بیومتریک از راه دور «در زمان واقعی» (به جز تحت شرایط سخت).
سیستمهای پرخطر شامل هوش مصنوعی در ماشینآلات، دستگاههای پزشکی و وسایل نقلیه، برای مدیریت زیرساختهای حیاتی، برای شناسایی و طبقهبندی بیومتریک افراد، برای اطلاعرسانی در مورد تصمیمات استخدام، ارزیابی نمرات اعتباری و سیستمهایی هستند که تأثیر نامطلوبی بر حقوق اساسی اتحادیه اروپا دارند. چنین سیستمهایی الزامات مختلفی از جمله دادههای مورد استفاده، ثبت سوابق، نظارت، شفافیت، دقت و امنیت را باید برآورده کنند.
سیستمهای کمخطر مانند چتباتها تعهدات خاصی خواهند داشت. به عنوان مثال، آگاه کردن کاربران از اینکه با یک ماشین در تعامل هستند.
پیشنهادات اتحادیه اروپا از این جهت مهم هستند که برخی از مسائل بسیار پیچیده را هماهنگ میکنند و اولین گام قانونی را برمیدارند. با این وجود، برخی احساس میکنند که آنها به اندازه کافی پیش نمیروند. به عنوان مثال، محدودیتهای آن در استفاده از شناسایی بیومتریک در برخی موارد ناکافی تلقی میشود.
ما و هوش مصنوعی به دنبال افزایش آگاهی و درک عمومی از خطرات و مزایای هوش مصنوعی هستیم. دکتر کلودین تینسمن، مشاور سیاستگذاری آن، خاطرنشان میکند که اگرچه ماده ۵ این آییننامه استفاده از شناسایی بیومتریک از راه دور را در فضاهای عمومی ممنوع میکند، اما فقط در مورد سیستمهای "بلادرنگ" مورد استفاده برای اهداف اجرای قانون اعمال میشود. این موضوع استفاده از تشخیص چهره "غیرزنده" برای پلیس را در بر نمیگیرد. برنامههای غیرزنده هنوز هم میتوانند برای شناسایی افراد یا استفادههای دیگر توسط مقامات دولتی یا بازیگران خصوصی استفاده شوند.
استثنائات دیگر به این معنی است که تشخیص چهره در زمان واقعی که برای شناسایی افرادی که مظنون به ورود یا زندگی در یک کشور عضو تحت شرایط نامنظم، مانند مهاجران و پناهندگان هستند، استفاده میشود را ممنوع نمیکند. تینسمن خاطرنشان میکند که بیش از ۶۰ سازمان غیردولتی از کمیسیون اروپا خواستهاند که استفاده از سیستمهای هوش مصنوعی را برای شناسایی خودکار جنسیت و گرایش جنسی ممنوع کند. چنین ممنوعیتی در پیشنویس آییننامه گنجانده نشده است. همچنین ممنوعیتی برای استفاده از فناوری بیومتریک برای اهدافی غیر از تشخیص، مانند سنجش احساسات وجود نداشت .
اخیراً ادعاهایی مبنی بر استفاده دولت چین از اویغورها به عنوان سوژههای آزمایشی از پیش قضاوت شده برای برنامههای سنجش احساسات هوش مصنوعی غیرمعتبر وجود داشته است. این برنامهها مانند دستگاههای دروغسنج آموزش دیده برای تشخیص و تشخیص تغییرات جزئی در منافذ پوست و حرکات صورت استفاده میشوند.
سیستمهای هوش مصنوعی که ارتعاشات سر افراد را برای تعیین حالات ذهنی و عاطفی تجزیه و تحلیل میکنند، در رویدادهایی مانند جام جهانی و بازیهای المپیک مورد استفاده قرار گرفتهاند. سیستمهای مشابهی برای تشخیص فریب در مرزهای ایالات متحده و اتحادیه اروپا استفاده شدهاند، علیرغم نگرانیها در مورد فقدان هرگونه شواهد معتبری در مورد دقت آنها. طبق قوانین جدید اتحادیه اروپا، چنین سیستمهای تشخیص احساسات پرخطر تلقی میشوند، اما ممنوع نیستند.
تینسمن نتیجه میگیرد که اگرچه این مقررات گامی در مسیر درست است، اما نقاط ضعف آن نگرانکننده است: «بهطور خاص، سیستمهای تشخیص چهره علیه اقلیتها جانبدارانه عمل میکنند، بنابراین باز گذاشتن در برای استفاده از آنها در مقیاس بزرگ میتواند بهطور نامتناسبی بر اقلیتها تأثیر بگذارد.»
در واقع، پیش از این نیز بررسی دقیقی در مورد تشخیص چهره مورد استفاده مقامات دولتی در بریتانیا انجام شده است. ولز جنوبی پلیس با موفقیت به دلیل استفاده غیرقانونی به دلایل حقوق بشری به چالش کشیده شد. چندین سازمان برای حفاظت از حقوق بسیج شدهاند. در We and AI، رویکرد ما افزایش سواد و آگاهی از هوش مصنوعی بوده است تا بتوان حقوق را درک کرد .