
تصور کنید یک کارآفرین جوان برای دریافت وام و توسعه کسبوکار خود، به یک بانک مراجعه میکند. درخواست او نه توسط یک انسان، بلکه توسط یک سیستم هوشمند اعتبارسنجی رد میشود. الگوریتم، بر اساس دادههایی که تحلیل کرده، او را فاقد صلاحیت تشخیص داده است. چند ماه بعد، مشخص میشود که این تصمیم، حاصل یک خطای الگوریتمی بوده و این فرصت از دست رفته، خسارت مالی قابل توجهی به آن کارآفرین وارد کرده است. در این سناریو، وقتی یک تصمیم اشتباه توسط یک کد کامپیوتری، زندگی یک انسان را تحت تأثیر قرار میدهد، پرسش بنیادین حقوقی مطرح میشود: چه کسی مسئول است؟ این مقاله به تحلیل چالشهای مسئولیت مدنی هوش مصنوعی و بررسی پاسخگویی حقوقی در برابر خسارات ناشی از تصمیمات الگوریتمی در چارچوب حقوق ایران و تحولات بینالمللی میپردازد.
نظام حقوقی ما، مسئولیت مدنی را بر سه رکن کلاسیک استوار کرده است:
فعل زیانبار: یک عمل یا ترک فعل که منجر به آسیب شده است.
ورود ضرر: خسارت باید مسلم، مستقیم و قابل اثبات باشد.
رابطه سببیت: باید یک پیوند منطقی و عرفی میان فعل زیانبار و ضرر وارد شده وجود داشته باشد.
در حالت کلی، اثبات «تقصیر» (اعم از عمد یا بیاحتیاطی) برای تحقق مسئولیت ضروری است. با این حال، حقوق ما مفهوم «مسئولیت مبتنی بر خطر» یا مسئولیت نوعی را نیز به رسمیت شناخته است؛ جایی که فرد بدون نیاز به اثبات تقصیر، صرفاً به دلیل ایجاد یک خطر نامتعارف، مسئول جبران خسارات ناشی از آن است. این قاعده در مواردی مانند مسئولیت مالک خودرو در برابر خسارات ناشی از آن (موضوع قانون بیمه اجباری) یا مسئولیت متصدی حمل و نقل به خوبی دیده میشود. در این موارد، قانونگذار فرض را بر این گذاشته که کنترل یک ابزار بالقوه خطرناک، مسئولیتی ذاتی به همراه دارد. حال پرسش اینجاست: آیا یک سیستم هوش مصنوعی پیچیده و خودآموز را میتوان یک «ابزار خطرناک» در معنای حقوقی آن تلقی کرد و آیا قانون فعلی ایران، با همین مبانی، ظرفیت پاسخگویی به پیچیدگیهای ناشی از خسارات AI و حقوق ایران را دارد؟

ورود سیستمهای هوشمند، ارکان سنتی مسئولیت مدنی را با چالشهای بیسابقهای روبرو کرده است:
نبود نیت انسانی در الگوریتمها: یک الگوریتم، «قصد» یا «اراده» به معنای انسانی ندارد. بنابراین، اثبات «تقصیر» در عملکرد آن بسیار دشوار است. آیا خطا در کدنویسی، بیاحتیاطی برنامهنویس است یا یک ریسک ذاتی و قابل پیشبینی در هر سیستم پیچیدهای؟ این ابهام، تکیه بر نظریه تقصیر را با مشکل مواجه میکند.
پیچیدگیهای فنی و «جعبه سیاه» (Black Box): بسیاری از مدلهای پیشرفته هوش مصنوعی، مانند یک جعبه سیاه عمل میکنند. آنها ورودی را دریافت کرده و خروجی را تحویل میدهند، اما فرآیند تصمیمگیری درونی آنها به سادگی قابل توضیح و ردیابی نیست. این عدم شفافیت، اثبات «رابطه سببیت» را تقریباً غیرممکن میسازد. مانند آن است که در یک تصادف رانندگی، کاپوت خودرو به شکلی جوش داده شده باشد که هیچ کارشناسی نتواند موتور را برای یافتن نقص فنی بررسی کند. شما میدانید خسارت وارد شده، اما نمیتوانید منشأ دقیق آن را در سیستم پیدا کنید.
سوگیریهای آموختهشده (Learned Bias): سیستمهای هوشمند، آینه دادههایی هستند که با آن آموزش دیدهاند. اگر این دادهها منعکسکننده سوگیریهای اجتماعی موجود باشند، خروجی الگوریتم نیز تبعیضآمیز خواهد بود. این سوگیری میتواند ناشی از «دادههای نمونهگیری» ناقص یا «سوگیری اندازهگیری» باشد. برای مثال، الگوریتمهای استخدام که در گذشته توسط شرکتهای بزرگ فناوری استفاده میشدند، به دلیل آموزش با رزومههای موفق قبلی که عمدتاً متعلق به مردان بود، به طور سیستماتیک رزومههای متقاضیان زن را رد میکردند. این یک خطای الگوریتمی است که منشأ آن نه در کد، بلکه در دادههای تاریخی است.
اتحادیه اروپا به عنوان پیشگام در قانون مسئولیت فناوری، با ارائه پیشنویس «دستورالعمل مسئولیت هوش مصنوعی» (AI Liability Directive)، تلاش کرده است تا به این چالشها پاسخ دهد. این دستورالعمل دو نوآوری مهم را معرفی میکند:
ایجاد فرض قانونی بر وجود رابطه سببیت: این قاعده، کار را برای زیاندیده آسانتر میکند. اگر خواهان (قربانی) بتواند نشان دهد که (الف) خوانده (مثلاً تولیدکننده AI) در رعایت یک تکلیف مراقبتی کوتاهی کرده و (ب) عملکرد معیوب AI باعث ورود خسارت شده، آنگاه یک رابطه سببیت بین کوتاهی و خسارت «فرض» میشود. در این حالت، بار اثبات عدم وجود این رابطه بر دوش خوانده قرار میگیرد.
حق دسترسی به شواهد: قربانیان حق دارند از دادگاه درخواست کنند که خوانده را ملزم به افشای اطلاعات فنی و سوابق عملکرد سیستم هوش مصنوعی نماید تا بتوانند ادعای خود را اثبات کنند. این حق دسترسی، راهی برای شکستن قفل «جعبه سیاه» است.
این رویکرد اروپایی، در تقابل با رویکرد آمریکا قرار دارد که بیشتر بر توسعه رویه قضایی و استفاده از دکترینهای موجود «مسئولیت تولیدکننده» (Product Liability) تکیه دارد. رویکرد اتحادیه اروپا، حمایتیتر و به نفع مصرفکنندگان و قربانیان خسارات ناشی از تصمیمات الگوریتمی است.
با توجه به سرعت پیشرفت فناوری، نظام حقوقی ما نیز نیازمند بازنگری و آمادگی است. چند راهکار پیشنهادی عبارتند از:
توسعه تدریجی حقوق مسئولیت مدنی: به جای تدوین یک قانون کاملاً جدید، میتوان با تفسیر موسع از قوانین موجود، به ویژه قانون مسئولیت مدنی، مفهوم «مسئولیت مبتنی بر خطر» را به سیستمهای هوش مصنوعی پرریسک (High-Risk AI Systems) تسری داد و آنها را در حکم اشیاء یا فعالیتهای خطرناک تلقی کرد.
معرفی مفهوم مسئولیت زنجیرهای: در یک سیستم هوشمند، مسئولیت نباید صرفاً بر عهده یک نفر باشد. باید یک زنجیره از مسئولیت میان عوامل مختلف توزیع شود:
توسعهدهنده الگوریتم: مسئولیت در قبال خطاهای طراحی و کدنویسی.
تأمینکننده داده: مسئولیت در قبال کیفیت و عدم سوگیری دادههای آموزشی.
کاربر یا اپراتور (مثلاً بانک): مسئولیت در قبال استفاده صحیح، نظارت مستمر و ایجاد فرآیندهای بازبینی انسانی.
ایجاد «محیط آزمون تنظیمگری» (Regulatory Sandbox): دولت و قوه قضائیه میتوانند محیطی کنترلشده ایجاد کنند که در آن، استارتاپها و شرکتهای دانشبنیان بتوانند ابزارهای حقوقی مبتنی بر AI خود را پیش از عرضه عمومی، تحت نظارت و با ریسک محدود آزمایش کنند.
آموزش تخصصی جامعه حقوقی: وکلا و قضات باید با مفاهیم فنی پایه مانند «داده آموزشی»، «سوگیری الگوریتمی» و «جعبه سیاه» آشنا شوند تا بتوانند پروندههای مرتبط با تقصیر در سیستمهای هوشمند را به درستی تحلیل و مدیریت کنند.
در پاسخ به سؤال اصلی مقاله، باید گفت که هیچ پاسخ واحد و سادهای برای مسئولیت ناشی از خطای یک سیستم هوشمند وجود ندارد. پاسخگویی حقوقی تصمیمات AI یک امر پیچیده و چندلایه است. مسئولیت، بسته به نقش هر عامل، باید به صورت جداگانه تحلیل شود. با این حال، با وجود تمام پیچیدگیها، یک اصل ثابت باقی میماند: مسئولیت نهایی همواره به یک عامل انسانی بازمیگردد. هوش مصنوعی یک ابزار است و این انسانها هستند که تصمیم میگیرند چگونه این ابزار قدرتمند را طراحی، آموزش، نظارت و به کار گیرند. آینده حقوق، نه در حذف مسئولیت، که در توزیع هوشمندانه آن میان تمام بازیگران این زنجیره فناورانه نهفته است.