رگولاتوری هوش‌مصنوعی در اتحادیه اروپا

با افزایش نگرانی‌ها درباره عواقب و خطرات هوش‌مصنوعی در زندگی بشر به نظر می‌رسد اتحادیه اروپا قدم جدی‌تری برای رگولاتوری AI برداشته است. در هفته‌های گذشته اخبار متعددی درباره دیدار مدیران غول‌های تکنولوژی با رهبران اروپا حول رگولاتوری هوش‌مصنوعی منتشر شد. از آنجایی که تنظیم هرگونه قوانین در این حوزه می‌تواند سرمایه‌گذاری کمپانی‌های بزرگ در حوزه AI را تحت تاثیر قرار بدهد، همراهی مدیران ارشد شرکت‌هایی نظیر OpenAI و گوگل با سیاست گذاران اروپایی دور از انتظار نیست. چنین دیدارهایی می‌تواند فرصت همکاری و توسعه محصولات و خدمات AI خارج از بازارهای آمریکا را برای غول‌های تکنولوژی فراهم ساخته و از طرفی از نگرانی آن‌ها برای ایجاد محدودیت بکاهد. دیدار ساندار پیچای [۱] و سم آلتمن [۲] با سیاست‌گذاران اروپایی در ماه گذشته میلادی از این حیث اهمیت پیدا می‌کند.

پارلمان اتحادیه اروپا در تاریخ ۱۴ام ژوئن به پیش نویس قانون هوش‌مصنوعی موسوم به The AI Act رای مثبت داد [۳]. در دسترس قرار گرفتن ChatGPT در سال جاری و پیشرفت های تحسین برانگیز در این حوزه قانون گذاران اروپایی را برای به تصویب رساندن چنین قانونی بیش از پیش ترغیب کرده است. تصویب و پیاده‌سازی چنین قانونی به دلیل ساختارهای دموکراتیک اتحادیه اروپا پیچیدگی‌های خاص خود را دارد. تهیه The AI Act از سال ۲۰۲۱ آغاز شد و هنوز تا تکمیل و عملیاتی شدن آن چند سالی باقیمانده است. تلاش‌های مشابهی در سایر کشورها نیز در حال انجام است [۴]. در ماه‌های اخیر درباره ریسک‌های هوش‌مصنوعی صحبت‌های بسیاری شده است. برخی از افراد به نام نظیر یوال نوح هراری هوش‌مصنوعی را با بمب اتم مقایسه کرده و معتقد هستند تسلط هوش‌مصنوعی بر زبان انسان برای پایان بشریت کافی است [۵]. از طرفی برخی نظیر یان لیکان دیدگاه مثبت‌تری نسبت به موضوع داشته و معقدند با رگولاتوری و اپن‌سورس نگه داشتن توسعه هوش‌مصنوعی می‌توان از مزایای آن بهره‌مند شد [۶]. اگرچه درباره کم و کیف ریسک‌های هوش‌مصنوعی دیدگاه‌های مختلفی وجود دارد ولی تمامی صاحب‌نظران درباره رگولاتوری آن اتفاق نظر دارند.

اما The AI Act چگونه از خطرات هوش‌مصنوعی می‌کاهد؟

در این قانون سیستم‌های مبتنی بر هوش‌مصنوعی براساس سطح ریسک به چهار دسته تقسیم می‌شوند [۷و۸].

ریسک غیرقابل‌قبول (Unacceptable risk): این سیستم‌ها تهدیدی برای انسان بوده و انتشار آن ممنوع است. به عنوان مثال:

  • سیستم‌هایی که رفتارهای شناختی انسان (به خصوص گروه‌های حساس نظیر کودکان) را دست‌کاری می‌کنند.
  • سیستم‌هایی که براساس شخصیت و وضعیت اقتصادی انسان‌ را امتیازدهی و دسته‌بندی می‌کنند.
  • سیستم‌های تشخیص هویت بیومتریک که به صورت برخط عمل می‌کنند.

ریسک بالا (High risk): سیستم‌هایی که ایمنی (safety) یا حقوق بنیادی انسان (fundamental right) را تحت تاثیر قرار می‌دهند باید پیش از انتشار در بازار مورد ارزیابی قرار بگیرند. این ارزیابی در تمامی چرخه عمر آن انجام می‌شود. بسیاری از سیستم‌های احراز هویت‌، مدیریت زیرساخت‌، آموزش، کنترل مرزها، اجرای قانون و غیره در این دسته قرار می‌گیرند.

ریسک محدود (Limited Risk): سیستم‌هایی که ریسک محدودی دارند باید تحت شرایط مشخص شده شفافیت داشته باشند. سیستم‌های Generative AI نظیر چت‌بات و سرویس‌هایی که محتوا تولید می‌کنند در این دسته قرار می‌گیرند. این شرایط عبارتنداز:

  • همواره مشخص باشد محتوای تولید شده توسط هوش‌مصنوعی تولید شده است.
  • محتوای غیرقانونی تولید نکند.
  • دیتای دارای حق کپی‌رایت که در آموزش دادن مدل هوش‌مصنوعی استفاده شده معرفی شود.

ریسک پایین (Low or minimal risk): سیستم‌های دارای ریسک پایین بدون محدودیت امکان انتشار دارند.

ارزیابی ریسک یک سیستم مبتنی بر هوش‌مصنوعی پیچیده بوده و انتظار می‌رود هزینه قابل توجهی را علی‌الخصوص به شرکت‌های استارتاپی تحمیل کند. از طرفی تخطی از این قانون مشمول جریمه سنگینی خواهد بود (۲ تا ۴ درصد درآمد جهانی شرکت و برای افراد ۲۰ میلیون یورو!). توزیع‌کنندگان نرم‌افزار نظیر گیت‌هاب و توسعه‌دهندگان اپن‌سورس نیز طبق این سند مسئولیت قانونی خواهند داشت [۹]. به نظر می‌رسد وجود رگولاتوری‌های مختلف در دنیا انتشار سیستم‌های مبتنی بر هوش‌مصنوعی را با پیچیدگی روبه کند. از این رو رایزنی مدیران ارشد غول‌های تکنولوژی پیش از تصویب این پیش‌نویس با سیاست‌گذاران اروپایی که در ابتدای مقاله اشاره شد لاجرم به نظر می‌رسد. با این حال شرایط موجود می‌تواند فرصتی برای جذب توسعه‌دهندگان و سرمایه‌گذاران هوش‌مصنوعی باشد [۱۰]. انتظار می‌رود در ماه‌های آینده اخبار بیش‌تری درباره تصویب قوانین مشابه در کشورهای مختلف و یکپارچه‌سازی آن (علی‌الخصوص بین اروپا و آمریکا) منتشر شود.


  1. Brussels and Google pitch voluntary AI pact to fill legislative gap
  2. Sam Altman’s big European tour
  3. MEPs ready to negotiate first-ever rules for safe and transparent AI
  4. به عنوان نمونه پیش‌نویش لایحه مشابه در آمریکا را از اینجا بخوانید.
  5. AI and the future of humanity | Yuval Noah Harari at the Frontiers Forum
  6. Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence
  7. EU AI Act: first regulation on artificial intelligence
  8. Artificial intelligence act
  9. مطالعه این مقاله نیز توصیه می‌شود.
  10. در ژاپن قانون کپی‌رایت برای آموزش مدل‌های هوش‌مصنوعی اعمال نمی‌شود. برای جزییات بیشتر اینجا را بخوانید.

جهت دسترسی به آخرین مقالات به اینجا مراجعه کنید. همچنین از طریق این لینک می‌توانید در کانال تلگرام این خبرنامه عضو شوید.