چرا باید برای استفاده از AI تنظیم مقررات داشته باشیم؟

رگولاتوری هوش مصنوعی
رگولاتوری هوش مصنوعی

هوش مصنوعی از چند جهت می‌تواند در تخلفات دخیل باشد. بدیهی است که هوش مصنوعی، با استفاده از توانایی‌های خود برای تسهیل اقدامات در برابر اهداف دنیای واقعی، می‌تواند به عنوان ابزاری برای جرم و جنایت استفاده شود: پیش‌بینی رفتار افراد یا موسسات برای کشف و بهره برداری از آسیب پذیری‌ها، تولید محتوای جعلی برای اخاذی یا آسیب رساندن به شهرت؛ انجام اعمالی که برای انسان به دلایل خطر، محدودیت جسمی، سرعت پاسخگویی و غیره نمی‌توانند خودشان را انجام دهند. اگرچه این روش‌ها جدید است، اما جنایات ممکن است ماهیتی سنتی داشته باشند؛ سرقت، زورگیری، ارعاب، وحشت. از طرف دیگر، سیستم‌های هوش مصنوعی ممکن است خود هدف فعالیت مجرمانه باشند: سیستم‌های محافظتی دور از ذهن که مانع جرم هستند. اجتناب از کشف یا پیگرد قانونی جرایمی که قبلاً مرتکب شده‌اند. باعث از کار افتادن سیستم‌های قابل اعتماد یا حیاتی یا رفتار نادرست آنها باعث آسیب رساندن یا تضعیف اعتماد عمومی می‌شود. هوش مصنوعی همچنین می‌تواند زمینه‌ای برای یک جرم فراهم کند. این تقلب ممکن است به این بستگی داشته باشد که قربانی معتقد باشد که در صورت عدم وجود قابلیت AI خاص، امکان پذیر است، یا این امکان وجود دارد اما برای کلاهبرداری استفاده نمی‌شود. شبیه سازی کاربردهای متقلبانه هوش مصنوعی که وجود ندارند، می‌تواند با استفاده از سایر روش‌های هوش مصنوعی موجود، انجام شود. جرایم بسیار متفاوت هستند. آنها ممکن است علیه افراد یا موسسات، مشاغل یا مشتریان، دارایی، دولت، ساختار اجتماعی یا گفتمان عمومی صورت پذیرند. انگیزه آنها ممکن است سود مالی، کسب قدرت یا تغییر وضعیت نسبت به دیگران باشد. آنها ممکن است باعث افزایش یا آسیب رساندن به شهرت یا روابط، تغییر سیاست یا ایجاد اختلاف شوند. این تأثیرات ممکن است به خودی خود هدف باشد یا اقدامی برای دستیابی به هدفی گسترده‌تر.

میزان مشارکت هوش مصنوعی در جرایم مختلف بستگی به سهم محیط‌ها و عملیات‌های محاسباتی در آنها دارد؛ برای مثال، استفاده از AI در یک کلاهبرداری بانکی بهتر از استفاده از آن در دعوا‌های فیزیکی است و این به دلیل تفاوت دنیای دیجیتال با دنیای فیزیکی است. با این حال، به دلیل اینکه جامعه امروز نه تنها برای امور مالی و بازرگانی بلکه برای همه اشکال ارتباطی، سیاسی، خبری، کاری و روابط اجتماعی به شدت به شبکه‌های رایانه‌ای پیچیده وابسته است و افراد زمان زیادی از زندگی خود را بصورت آنلاین می‌گذرانند و بیشتر اطلاعات خود را در آنجا به دست می‌آورند و فعالیت‌های آنلاین آنها باعث ایجاد داده‌ای می‌شود که دارایی محسوب شده و قدرت اطلاعاتی دارد؛ چنین محیط‌های آنلاینی برای فعالیت‌های مجرمانه مبتنی بر هوش مصنوعی بسیار مناسب هستند که می‌توانند عواقب قابل توجهی در دنیای واقعی از خود به جا بگذارند.

علاوه بر این، برخلاف بسیاری از جرایم سنتی، جرایم در حوزه دیجیتال اغلب بسیار قابل تکرار هستند: پس از توسعه یافتن، تکنیک‌ها می‌توانند به اشتراک گذاشته شوند‌، تکرار شوند و حتی به فروش برسند، و این امکان را برای تجارت فنون جنایی یا «جرم به عنوان سرویس» فراهم می‌کند. این امر می‌تواند منجر به کاهش موانع تکنولوژیکی شود زیرا جنایتکاران قادر به برون سپاری جنبه‌های چالش برانگیز جنایات مبتنی بر هوش مصنوعی خود هستند.

در ادامه به معرفی برخی حوادث احتمالی می‌پردازیم:

  • دستکاری و تقلید در فایل‌های صدا و تصویر

از ابتدای، مردم اعتبار زیادی برای چشم و گوش خود قائل هستند و از این رو، علی رغم سابقه طولانی ترفندهای عکس، اعتبارات زیادی (و اغلب از نظر قانونی) به مدارک صوتی و تصویری داده می‌شود. اما پیشرفت‌های اخیر در یادگیری عمیق، دامنه تولید محتوای جعلی را بسیار گسترش داده است. موارد مجرمانه با استفاده از فناوری‌های "deep fake" نظیر جعل هویت کودکان به والدین‌شان از طریق تماس‌های ویدئویی برای دسترسی به حساب‌های بانکی، و یا از طریق تماس‌های تلفنی برای دستیابی به سیستم‌های امنیتی و همچنین فیلم‌های جعلی از شخصیت‌های عمومی و مطرح صحبت می کنند از جمله مواردی است که دیده شده و به اعتماد مردم به این رسانه‌ها آسیب می‌زند.

جعل هویت صوتی/ تصویری به عنوان مهمترین نوع جرم در کل مواردی که در نظر گرفته شد رتبه بندی شده است. مقابله با این جرم دشوار تلقی می‌شود؛ اگرچه محققان در طراحی الگوریتم‌های تشخیص جعل هویت (Guera and Delp 2018) موفقیت‌هایی را کسب کرده‌اند، اما این ممکن است در طولانی مدت نیز امکان پذیر نباشد و بسیاری از مسیرهای کنترل نشده وجود دارد که از طریق آنها مواد جعلی گسترش می‌یابد. تغییر در رفتار شهروندان ممکن است تنها راه دفاع موثر باشد. این تغییرات رفتاری، مانند بی اعتمادی عمومی به مدارک تصویری، می‌تواند علاوه بر آسیب‌های مستقیم مانند کلاهبرداری یا آسیب رساندن به شهرت، به عنوان آسیب‌های غیرمستقیم اجتماعی ناشی از جرم محسوب شود. اگر مشخص شود که حتی یک قسمت کوچک از مدرک تصویری جعلی بوده است، بی اعتبار کردن مدارک واقعی بسیار آسان‌تر می‌شود و تحقیقات جنایی و اعتبار نهادهای سیاسی و اجتماعی را که به ارتباطات قابل اعتماد متکی هستند، تضعیف می‌کند. چنین گرایشاتی از قبل در گفتمان «اخبار جعلی» مشهود است.

deep fake
deep fake
  • وسایل حمل و نقل بدون راننده به عنوان سلاح

وسایل نقلیه در اکثر کشورها بسیار راحت‌تر از سلاح گرم و مواد منفجره در دسترس هستند و حملات با استفاده از وسایل نقلیه را می‌توان با تلاش تشکیلاتی نسبتاً کمی توسط تروریست‌ها انجام داد. این در حالی است که خودروهای بدون راننده کاملاً خودمختار و مستقل از هوش مصنوعی هنوز کاملا در دسترس نیستند و بسیاری از خودروسازان و شرکت‌های فناوری برای توسعه آنها سخت تلاش می‌کنند و تنها برخی آزمایشات در جاده‌های عمومی مجاز است.

وسایل حمل و نقل خودران
وسایل حمل و نقل خودران

لازم به ذکر است که قابلیت‌های محدودتری از رانندگی خودکار مانند راهنمای اتوماتیک پارکینگ و راهنماهای کنترل ترافیک در حال حاضر استفاده می‌شوند. وسایل نقلیه مستقل با کاهش نیاز به استخدام رانندگان و اجازه دادن به مجرمان برای انجام چندین حمله و حتی هماهنگی تعداد زیادی از وسایل نقلیه به طور بالقوه امکان گسترش تروریسم وسایل نقلیه را فراهم می‌کنند. البته از آنجا که به احتمال قوی اتومبیل‌های بدون راننده از سیستم‌های امنیتی گسترده‌ای برخوردار خواهند بود، حملات به این سیستم‌ها سخت خواهد بود زیرا مجرمان نیاز به فناوری بالا و زیرساخت مناسب خواهند داشت.

برای رفع این چالش‌ها اقدامات نظارتی و قانونی لازم است. این تنها راه برای اطمینان از عملکرد مناسب سیستم‌های هوش مصنوعی در پیاده‌سازی و بازار است که در آن هم مزایا و هم خطرات آن به اندازه کافی برطرف می‌شود. این شامل برنامه‌هایی مانند سیستم‌های شناسایی بیومتریک، Deep Fakes یا تصمیمات هوش مصنوعی است که بر منافع شخصی حیاتی تأثیر می‌گذارد، مانند استخدام، آموزش، مراقبت‌های بهداشتی یا اجرای قانون. مطالعات و بررسی‌ها نشان می‌دهد که باید یک چارچوب جهانی ایجاد شود تا بتوان از حمایت از حقوق اولیه و اساسی، ایمنی همه کاربران و اعتماد به توسعه و استقرار هوش مصنوعی اطمینان حاصل کرد. این امر نیازمند ایجاد یک واحد سازمان یافته و عملیاتی بین المللی است تا سیستم‌های هوش مصنوعی را در سراسر جهان در مورد تأثیرات و خطرات جامعه بررسی و نظارت کند. جای سوال است که آیا چنین سازمانی می‌تواند به صورت سراسری تأسیس شود؟

متأسفانه، تنظیم مقررات به تنهایی کافی نیست. بزرگترین چالش، نظارت بر این سیستم‌ها خواهد بود. همچنین بسیار مهم است که تنظیم مقررات برای هوش مصنوعی همیشه باید مبتنی بر مشاهده و بینش باشد. همانطور که هوش مصنوعی به طور پویا در حال توسعه است، باید سریعترین دستاوردها را ارزیابی کرد و قوانین را مطابق با آن تنظیم کرد.