ویرگول
ورودثبت نام
Mohadeseh Khalilian
Mohadeseh Khalilianمحدثه خلیلیان نویسنده و پژوهشگر در زمینه حقوق رسانه و هوش مصنوعی . با ترازوی قلم، مفاهیم حقوقی رو ساده و کاربردی می‌کنم. علاقه‌مند به آموزش و مشاوره نویسندگی و محتوا.
Mohadeseh Khalilian
Mohadeseh Khalilian
خواندن ۸ دقیقه·۷ ماه پیش

بررسی مسئولیت حقوقی هوش مصنوعی در رسانه‌ها: از مسئولیت مدنی تا تولید محتوای جعلی

مقدمه

هوش مصنوعی (Artificial Intelligence) دیگر مفهومی تخیلی و آینده‌نگرانه نیست؛ بلکه به واقعیتی انکارناپذیر در زندگی روزمره، کسب‌وکار و به‌ویژه در حوزه رسانه‌ها بدل شده است. رسانه‌های دیجیتال با بهره‌گیری از الگوریتم‌های هوشمند، نه تنها در تولید محتوا، بلکه در تحلیل، اولویت‌بندی، توزیع و حتی سانسور اطلاعات نقش پررنگی ایفا می‌کنند. این تحولات فناورانه، گرچه فرصت‌های بی‌سابقه‌ای در عرصه‌ی ارتباطات و اطلاع‌رسانی فراهم آورده‌اند، اما هم‌زمان، پرسش‌هایی بنیادین در خصوص مسئولیت حقوقی رفتارهای هوشمندانه و غیرانسانی این سیستم‌ها ایجاد کرده‌اند.

در حالی که الگوریتم‌های هوش مصنوعی ممکن است بی‌طرف یا خنثی تلقی شوند، تجربه نشان داده است که آن‌ها می‌توانند به‌طور ناخواسته (و گاه هدفمند) موجب نشر اطلاعات نادرست، ترویج تبعیض، تخریب حیثیت افراد یا حتی تهدید امنیت عمومی شوند. پرسش اصلی اینجاست: در صورت بروز چنین زیان‌هایی، چه کسی مسئول است؟ آیا می‌توان هوش مصنوعی را به‌عنوان یک «فاعل» در نظر گرفت؟ یا مسئولیت بر عهده‌ی طراح، کاربر، پلتفرم یا نهاد ناظر است؟

این مقاله می‌کوشد با نگاهی تحلیلی و تطبیقی، مسئولیت حقوقی ناشی از فعالیت‌های هوش مصنوعی در حوزه رسانه را بررسی کند. در سه بخش اصلی، نخست به مسئولیت مدنی در بروز خسارات غیرعمدی یا تبعیض‌آمیز پرداخته می‌شود. سپس مسئولیت کیفری در قبال تولید محتوای جعلی همچون deepfake و اخبار دروغین واکاوی می‌گردد. در نهایت، نقش حقوقی الگوریتم‌ها به‌عنوان تصمیم‌گیرندگان پنهان رسانه‌ای بررسی شده و پیشنهادهایی برای تنظیم‌گری مؤثر در این حوزه ارائه می‌شود.

مسئولیت مدنی هوش مصنوعی در رسانه‌ها

در حقوق مدنی، هرگاه رفتاری منجر به ورود ضرر به دیگری شود، فاعل آن رفتار در صورت وجود ارکان مسئولیت یعنی تقصیر، ضرر و رابطه‌ی سببیت مسئول جبران خسارت خواهد بود. اما پرسش مهم در عصر هوش مصنوعی این است که: در صورت بروز زیان از ناحیه‌ی سامانه‌ای هوشمند که به‌صورت مستقل محتوا تولید یا منتشر می‌کند، مسئولیت متوجه چه کسی است؟

الگوریتم‌های هوش مصنوعی در رسانه‌ها اغلب به‌گونه‌ای طراحی می‌شوند که تصمیم‌گیری‌های خودکار انجام دهند؛ از جمله انتخاب تیتر، چینش اخبار، نمایش تبلیغات، یا حتی تولید محتوای خودکار. این فرآیندها می‌توانند باعث پخش اطلاعات غلط، آسیب به شهرت افراد، یا حتی تشویش اذهان عمومی شوند. با این حال،AI فاقد شخصیت حقوقی است و نمی‌توان آن را همچون انسان یا نهاد دارای مسئولیت دانست. در نتیجه، باید دید آیا می‌توان طراح الگوریتم، اپراتور سامانه، یا صاحب پلتفرم را مسئول تلقی کرد.

از دید برخی نظریه‌پردازان، الگوریتم در حکم «ابزار» است؛ همچون خودکار در دست نویسنده. بنابراین، هرگونه نتیجه‌ی زیان‌بار ناشی از استفاده از آن، متوجه فرد یا نهادی است که از آن بهره‌برداری کرده یا در طراحی آن اهمال ورزیده است. این دیدگاه، مسئولیت را بر پایه‌ی تقصیر (مانند سوء طراحی، آموزش نادرست داده‌ها یا نظارت ناکافی) بنا می‌نهد.

در مقابل، برخی تحلیل‌گران بر اساس نظریه‌ی مسئولیت بدون تقصیر (objective liability) استدلال می‌کنند که حتی اگر هیچ‌گونه تقصیری در عملکرد انسانی نباشد، صرف بهره‌برداری از یک فناوری با ریسک بالا مانند هوش مصنوعی می‌تواند مسئولیت ایجاد کند؛ به‌ویژه زمانی که این فناوری با زیان‌های گسترده‌ی اجتماعی همراه شود. این نگاه می‌تواند راه را برای «مسئولیت مبتنی بر خطر» یا «بیمه‌پذیری مسئولیت»باز کند.

در فضای رسانه‌ای که فناوری‌های هوش مصنوعی به‌طور گسترده و روزافزون در حال فعالیت‌اند، ضرورت تدوین مقررات شفاف در حوزه مسئولیت مدنی بیش از پیش احساس می‌شود. شناسایی دقیق مسئولیت‌های اشخاص درگیر در طراحی، آموزش، بهره‌برداری و نظارت بر سامانه‌های هوشمند، شرط اساسی برای حمایت از حقوق زیان‌دیدگان و ایجاد توازن میان نوآوری و عدالت است.

مسئولیت کیفری در تولید محتوای جعلی توسط هوش مصنوعی

یکی از چالش‌برانگیزترین جلوه‌های نفوذ هوش مصنوعی در رسانه‌ها، تولید و انتشار محتوای جعلی است. ابزارهای مبتنی‌برAI امروزه قادرند ویدئوهای ساختگی(deepfake)، تصاویر جعلی، اخبار نادرست و حتی مصاحبه‌های مجازی با چهره‌های مشهور تولید کنند؛ محتوایی که گاه با واقعیت چنان درآمیخته است که تمییز آن برای مخاطب عادی بسیار دشوار می‌شود. سؤال اساسی در این زمینه آن است که در صورت تولید چنین محتوایی، چه کسی در برابر قانون پاسخگو خواهد بود؟

در حقوق کیفری، برای تحقق جرم، وجود عنصر قانونی، مادی و روانی ضروری است. حال اگر محتوای مجرمانه‌ای همچون افترا، نشر اکاذیب، جعل دیجیتال یا تحریک افکار عمومی توسط یک سامانه‌ی هوش مصنوعی تولید شود، تعیین مسئولیت کیفری با موانع جدی روبه‌رو می‌شود. چراکه سیستم هوش مصنوعی فاقد اراده، قصد، علم و اختیار است و نمی‌توان آن را به عنوان یک فاعل مجرمانه تلقی کرد.

در چنین شرایطی، حقوق‌دانان معمولاً بر این نکته تأکید دارند که عنصر روانی جرم باید در فاعل انسانی شناسایی شود. این فاعل می‌تواند طراح الگوریتم، کاربر سامانه، یا حتی مالک پلتفرمی باشد که آگاهانه زمینه‌ی تولید یا انتشار چنین محتوایی را فراهم کرده است. به عنوان مثال، اگر فردی سامانه‌ای را آموزش دهد تا با جعل تصویر و صدا، چهره‌ی فردی معروف را به رفتارهای غیراخلاقی منتسب کند، در واقع عنصر معنوی جرم را شخصاً محقق کرده است.

با این حال، چالش‌هایی نیز وجود دارد:

• گاه ممکن است محتوا به‌صورت ناخواسته و خودکار تولید شود؛ بدون اینکه طراح یا کاربر قصد مجرمانه‌ای داشته باشد.

• ممکن است از سامانه‌ی هوش مصنوعی به‌صورت غیرمجاز سوء‌استفاده شده باشد (هک یا نفوذ غیرقانونی).

• در مواردی نیز ممکن است تشخیص هویت واقعی فاعل انسانی دشوار یا غیرممکن باشد.

در حقوق ایران، هنوز مقررات ویژه‌ای برای جرایم ناشی از تولید محتوای جعلی توسط هوش مصنوعی پیش‌بینی نشده است، اما قانون جرایم رایانه‌ای مصوب 1388، به‌ویژه در بخش مربوط به نشر اکاذیب و جعل داده‌ها، می‌تواند مورد استناد قرار گیرد. همچنین در سطح بین‌المللی، سندهایی مانند مقررات عمومی حفاظت از داده‌ها (GDPR)و تلاش‌های اتحادیه اروپا در تدوین قانون هوش مصنوعی (AI Act)، به‌روشنی در پی تعیین چهارچوب مسئولیت‌های قانونی در مواجهه با محتواهای هوشمند و خطرساز هستند.

در نهایت، مسئولیت کیفری در این حوزه نیازمند:

1. تعریف دقیق جرم در بستر دیجیتال و هوش مصنوعی

2. شناسایی نقش و نیت فاعل انسانی

3. توسعه رویه‌های حقوقی و فنی برای پیگیری جرم و شناسایی مجرم

می‌باشد.

نقش حقوقی الگوریتم‌ها در رسانه‌ها

الگوریتم‌ها به‌عنوان مغز متفکر پلتفرم‌های هوشمند رسانه‌ای، نقشی تعیین‌کننده در ساختار، سازماندهی، جهت‌دهی و گاه دست‌کاری اطلاعات ایفا می‌کنند. از چینش اخبار در صفحه اول تا پیشنهادهای هوشمندانه برای کاربران، همه و همه نتیجه‌ی پردازش‌های الگوریتمی است. با این حال، پنهان‌بودن فرآیند تصمیم‌گیری این الگوریتم‌ها و عدم شفافیت عملکرد آن‌ها، مسائل مهمی در حوزه‌ی حقوق رسانه پدید آورده است.

الگوریتم‌ها نه تنها بر دسترسی مخاطب به اطلاعات تأثیر می‌گذارند، بلکه می‌توانند به‌صورت ناآگاهانه یا هدفمند، باعث تبعیض اطلاعاتی، تحریف واقعیت، سانسور پنهان، گسترش اخبار کذب یا جهت‌دهی افکار عمومی شوند. این نقش مؤثر و گاه خطرساز، موجب شده است که بحث شناسایی مسئولیت حقوقی در قبال عملکرد الگوریتم‌ها به یکی از چالش‌های اساسی در حوزه‌ی حکمرانی دیجیتال بدل شود.

در این زمینه، چند نکته قابل توجه است:

1. فقدان شخصیت حقوقی الگوریتم‌ها

الگوریتم‌ها موجودیت مستقلی از خود ندارند؛ آن‌ها محصول تصمیم انسان‌اند و هرچند می‌توانند به‌صورت خودکار عمل کنند، اما از منظر حقوقی، فاعل یا متهم تلقی نمی‌شوند. بنابراین باید به حلقه‌های انسانیِ درگیر در طراحی، آموزش، نظارت و بهره‌برداری از الگوریتم توجه کرد.

2. مسئولیت نهادهای رسانه‌ای

پلتفرم‌هایی نظیر شبکه‌های اجتماعی، سایت‌های خبری و موتورهای جست‌وجو که از الگوریتم برای مدیریت محتوا استفاده می‌کنند، در صورت عدم شفافیت، تبعیض الگوریتمی، یا پخش اطلاعات نادرست ممکن است در معرض مسئولیت مدنی یا حتی کیفری قرار گیرند. مسئولیت این نهادها می‌تواند ناشی از اهمال در نظارت، طراحی تبعیض‌آمیز، یا عدم رعایت اصول بی‌طرفی و صحت محتوا باشد.

3. ضرورت تنظیم‌گری و شفافیت الگوریتمی

در سال‌های اخیر، بحث الگوریتم‌های قابل توضیح (explainable AI) و شفافیت الگوریتمی (algorithmic transparency) در محافل حقوقی و فناوری مورد توجه قرار گرفته است. این مفاهیم بر این نکته تأکید دارند که مخاطبان، تنظیم‌گران و حتی دادگاه‌ها باید بدانند که تصمیمات رسانه‌ای چگونه و بر اساس چه معیارهایی اتخاذ می‌شوند. این شفافیت نه تنها به افزایش اعتماد عمومی می‌انجامد، بلکه بستر مناسبی برای مسئولیت‌پذیری حقوقی و اخلاقی فراهم می‌آورد.

4. تلاقی الگوریتم‌ها با حقوق بشر

در مواردی که الگوریتم‌ها به نقض حقوق بنیادین مانند آزادی بیان، حق دسترسی به اطلاعات یا حریم خصوصی منجر شوند، می‌توان با استناد به موازین حقوق بشر، عملکرد پلتفرم یا الگوریتم را به چالش کشید. این امر به‌ویژه در نظام‌های حقوقی با رویکرد لیبرال و دموکراتیک، اهمیت بالایی دارد.

در نهایت، الگوریتم‌ها از نظر حقوقی دیگر ابزارهای خنثی نیستند، بلکه به عنوان بازیگرانی پنهان اما مؤثر در نظم رسانه‌ای، نیازمند نظارت و تنظیم‌گری دقیق، و طراحی سازوکارهای مسئولیت‌پذیر در قبال نتایج عملکرد خود هستند.

جمع‌بندی نهایی

در عصر دیجیتال و سلطه‌ی فناوری‌های نوظهور، رسانه‌ها دیگر صرفاً ابزارهای انسانی نیستند، بلکه محصول ترکیب پیچیده‌ای از الگوریتم‌ها، داده‌ها و هوش مصنوعی هستند. در چنین وضعیتی، حقوق رسانه با چالش‌های نوپدیدی روبه‌روست که نه‌تنها قواعد سنتی حقوق را به آزمون می‌کشد، بلکه لزوم تدوین مقررات تازه‌ای را نیز گوشزد می‌کند.

در این مقاله، به مهم‌ترین ابعاد حقوقی تأثیر هوش مصنوعی بر رسانه‌ها پرداختیم:

• ابتدا نشان دادیم که مسئولیت مدنی سامانه‌های هوش مصنوعی در حوزه رسانه، هنوز در بسیاری از نظام‌های حقوقی تعریف روشنی ندارد و به‌جای تمرکز بر خود سامانه، باید نقش انسان‌هایی چون طراح، توسعه‌دهنده یا بهره‌بردار را بررسی کرد.

• سپس به مسئولیت کیفری در تولید محتوای جعلی توسط AI پرداختیم؛ جایی که تشخیص نیت مجرمانه، عامدانه بودن عمل، و تعیین فاعل انسانی چالش‌های حقوقی اساسی ایجاد می‌کنند.

• در نهایت، به نقش حقوقی الگوریتم‌ها در رسانه‌ها پرداختیم و بر لزوم شفاف‌سازی، نظارت و ایجاد مسئولیت برای تصمیم‌گیری‌های الگوریتمی تأکید کردیم.

هوش مصنوعی، هم‌زمان فرصتی برای ارتقاء دقت و گستره‌ی رسانه‌هاست و تهدیدی برای تحریف واقعیت و نقض حقوق عمومی. بنابراین، قانون‌گذاران، حقوق‌دانان، فعالان رسانه و توسعه‌دهندگان فناوری باید در کنار هم، مسیر تنظیم‌گری هوشمند، مسئولیت‌پذیر و آینده‌نگر را طراحی کنند؛ مسیری که از یک سو نوآوری را متوقف نکند و از سوی دیگر، عدالت و حقوق بشر را قربانی سرعت و سودآوری نکند.

هوش مصنوعیمسئولیت مدنی
۵
۱
Mohadeseh Khalilian
Mohadeseh Khalilian
محدثه خلیلیان نویسنده و پژوهشگر در زمینه حقوق رسانه و هوش مصنوعی . با ترازوی قلم، مفاهیم حقوقی رو ساده و کاربردی می‌کنم. علاقه‌مند به آموزش و مشاوره نویسندگی و محتوا.
شاید از این پست‌ها خوشتان بیاید