
مقدمه
هوش مصنوعی (Artificial Intelligence) دیگر مفهومی تخیلی و آیندهنگرانه نیست؛ بلکه به واقعیتی انکارناپذیر در زندگی روزمره، کسبوکار و بهویژه در حوزه رسانهها بدل شده است. رسانههای دیجیتال با بهرهگیری از الگوریتمهای هوشمند، نه تنها در تولید محتوا، بلکه در تحلیل، اولویتبندی، توزیع و حتی سانسور اطلاعات نقش پررنگی ایفا میکنند. این تحولات فناورانه، گرچه فرصتهای بیسابقهای در عرصهی ارتباطات و اطلاعرسانی فراهم آوردهاند، اما همزمان، پرسشهایی بنیادین در خصوص مسئولیت حقوقی رفتارهای هوشمندانه و غیرانسانی این سیستمها ایجاد کردهاند.
در حالی که الگوریتمهای هوش مصنوعی ممکن است بیطرف یا خنثی تلقی شوند، تجربه نشان داده است که آنها میتوانند بهطور ناخواسته (و گاه هدفمند) موجب نشر اطلاعات نادرست، ترویج تبعیض، تخریب حیثیت افراد یا حتی تهدید امنیت عمومی شوند. پرسش اصلی اینجاست: در صورت بروز چنین زیانهایی، چه کسی مسئول است؟ آیا میتوان هوش مصنوعی را بهعنوان یک «فاعل» در نظر گرفت؟ یا مسئولیت بر عهدهی طراح، کاربر، پلتفرم یا نهاد ناظر است؟
این مقاله میکوشد با نگاهی تحلیلی و تطبیقی، مسئولیت حقوقی ناشی از فعالیتهای هوش مصنوعی در حوزه رسانه را بررسی کند. در سه بخش اصلی، نخست به مسئولیت مدنی در بروز خسارات غیرعمدی یا تبعیضآمیز پرداخته میشود. سپس مسئولیت کیفری در قبال تولید محتوای جعلی همچون deepfake و اخبار دروغین واکاوی میگردد. در نهایت، نقش حقوقی الگوریتمها بهعنوان تصمیمگیرندگان پنهان رسانهای بررسی شده و پیشنهادهایی برای تنظیمگری مؤثر در این حوزه ارائه میشود.
مسئولیت مدنی هوش مصنوعی در رسانهها
در حقوق مدنی، هرگاه رفتاری منجر به ورود ضرر به دیگری شود، فاعل آن رفتار در صورت وجود ارکان مسئولیت یعنی تقصیر، ضرر و رابطهی سببیت مسئول جبران خسارت خواهد بود. اما پرسش مهم در عصر هوش مصنوعی این است که: در صورت بروز زیان از ناحیهی سامانهای هوشمند که بهصورت مستقل محتوا تولید یا منتشر میکند، مسئولیت متوجه چه کسی است؟
الگوریتمهای هوش مصنوعی در رسانهها اغلب بهگونهای طراحی میشوند که تصمیمگیریهای خودکار انجام دهند؛ از جمله انتخاب تیتر، چینش اخبار، نمایش تبلیغات، یا حتی تولید محتوای خودکار. این فرآیندها میتوانند باعث پخش اطلاعات غلط، آسیب به شهرت افراد، یا حتی تشویش اذهان عمومی شوند. با این حال،AI فاقد شخصیت حقوقی است و نمیتوان آن را همچون انسان یا نهاد دارای مسئولیت دانست. در نتیجه، باید دید آیا میتوان طراح الگوریتم، اپراتور سامانه، یا صاحب پلتفرم را مسئول تلقی کرد.
از دید برخی نظریهپردازان، الگوریتم در حکم «ابزار» است؛ همچون خودکار در دست نویسنده. بنابراین، هرگونه نتیجهی زیانبار ناشی از استفاده از آن، متوجه فرد یا نهادی است که از آن بهرهبرداری کرده یا در طراحی آن اهمال ورزیده است. این دیدگاه، مسئولیت را بر پایهی تقصیر (مانند سوء طراحی، آموزش نادرست دادهها یا نظارت ناکافی) بنا مینهد.
در مقابل، برخی تحلیلگران بر اساس نظریهی مسئولیت بدون تقصیر (objective liability) استدلال میکنند که حتی اگر هیچگونه تقصیری در عملکرد انسانی نباشد، صرف بهرهبرداری از یک فناوری با ریسک بالا مانند هوش مصنوعی میتواند مسئولیت ایجاد کند؛ بهویژه زمانی که این فناوری با زیانهای گستردهی اجتماعی همراه شود. این نگاه میتواند راه را برای «مسئولیت مبتنی بر خطر» یا «بیمهپذیری مسئولیت»باز کند.
در فضای رسانهای که فناوریهای هوش مصنوعی بهطور گسترده و روزافزون در حال فعالیتاند، ضرورت تدوین مقررات شفاف در حوزه مسئولیت مدنی بیش از پیش احساس میشود. شناسایی دقیق مسئولیتهای اشخاص درگیر در طراحی، آموزش، بهرهبرداری و نظارت بر سامانههای هوشمند، شرط اساسی برای حمایت از حقوق زیاندیدگان و ایجاد توازن میان نوآوری و عدالت است.
مسئولیت کیفری در تولید محتوای جعلی توسط هوش مصنوعی
یکی از چالشبرانگیزترین جلوههای نفوذ هوش مصنوعی در رسانهها، تولید و انتشار محتوای جعلی است. ابزارهای مبتنیبرAI امروزه قادرند ویدئوهای ساختگی(deepfake)، تصاویر جعلی، اخبار نادرست و حتی مصاحبههای مجازی با چهرههای مشهور تولید کنند؛ محتوایی که گاه با واقعیت چنان درآمیخته است که تمییز آن برای مخاطب عادی بسیار دشوار میشود. سؤال اساسی در این زمینه آن است که در صورت تولید چنین محتوایی، چه کسی در برابر قانون پاسخگو خواهد بود؟
در حقوق کیفری، برای تحقق جرم، وجود عنصر قانونی، مادی و روانی ضروری است. حال اگر محتوای مجرمانهای همچون افترا، نشر اکاذیب، جعل دیجیتال یا تحریک افکار عمومی توسط یک سامانهی هوش مصنوعی تولید شود، تعیین مسئولیت کیفری با موانع جدی روبهرو میشود. چراکه سیستم هوش مصنوعی فاقد اراده، قصد، علم و اختیار است و نمیتوان آن را به عنوان یک فاعل مجرمانه تلقی کرد.
در چنین شرایطی، حقوقدانان معمولاً بر این نکته تأکید دارند که عنصر روانی جرم باید در فاعل انسانی شناسایی شود. این فاعل میتواند طراح الگوریتم، کاربر سامانه، یا حتی مالک پلتفرمی باشد که آگاهانه زمینهی تولید یا انتشار چنین محتوایی را فراهم کرده است. به عنوان مثال، اگر فردی سامانهای را آموزش دهد تا با جعل تصویر و صدا، چهرهی فردی معروف را به رفتارهای غیراخلاقی منتسب کند، در واقع عنصر معنوی جرم را شخصاً محقق کرده است.
با این حال، چالشهایی نیز وجود دارد:
• گاه ممکن است محتوا بهصورت ناخواسته و خودکار تولید شود؛ بدون اینکه طراح یا کاربر قصد مجرمانهای داشته باشد.
• ممکن است از سامانهی هوش مصنوعی بهصورت غیرمجاز سوءاستفاده شده باشد (هک یا نفوذ غیرقانونی).
• در مواردی نیز ممکن است تشخیص هویت واقعی فاعل انسانی دشوار یا غیرممکن باشد.
در حقوق ایران، هنوز مقررات ویژهای برای جرایم ناشی از تولید محتوای جعلی توسط هوش مصنوعی پیشبینی نشده است، اما قانون جرایم رایانهای مصوب 1388، بهویژه در بخش مربوط به نشر اکاذیب و جعل دادهها، میتواند مورد استناد قرار گیرد. همچنین در سطح بینالمللی، سندهایی مانند مقررات عمومی حفاظت از دادهها (GDPR)و تلاشهای اتحادیه اروپا در تدوین قانون هوش مصنوعی (AI Act)، بهروشنی در پی تعیین چهارچوب مسئولیتهای قانونی در مواجهه با محتواهای هوشمند و خطرساز هستند.
در نهایت، مسئولیت کیفری در این حوزه نیازمند:
1. تعریف دقیق جرم در بستر دیجیتال و هوش مصنوعی
2. شناسایی نقش و نیت فاعل انسانی
3. توسعه رویههای حقوقی و فنی برای پیگیری جرم و شناسایی مجرم
میباشد.
نقش حقوقی الگوریتمها در رسانهها
الگوریتمها بهعنوان مغز متفکر پلتفرمهای هوشمند رسانهای، نقشی تعیینکننده در ساختار، سازماندهی، جهتدهی و گاه دستکاری اطلاعات ایفا میکنند. از چینش اخبار در صفحه اول تا پیشنهادهای هوشمندانه برای کاربران، همه و همه نتیجهی پردازشهای الگوریتمی است. با این حال، پنهانبودن فرآیند تصمیمگیری این الگوریتمها و عدم شفافیت عملکرد آنها، مسائل مهمی در حوزهی حقوق رسانه پدید آورده است.
الگوریتمها نه تنها بر دسترسی مخاطب به اطلاعات تأثیر میگذارند، بلکه میتوانند بهصورت ناآگاهانه یا هدفمند، باعث تبعیض اطلاعاتی، تحریف واقعیت، سانسور پنهان، گسترش اخبار کذب یا جهتدهی افکار عمومی شوند. این نقش مؤثر و گاه خطرساز، موجب شده است که بحث شناسایی مسئولیت حقوقی در قبال عملکرد الگوریتمها به یکی از چالشهای اساسی در حوزهی حکمرانی دیجیتال بدل شود.
در این زمینه، چند نکته قابل توجه است:
1. فقدان شخصیت حقوقی الگوریتمها
الگوریتمها موجودیت مستقلی از خود ندارند؛ آنها محصول تصمیم انساناند و هرچند میتوانند بهصورت خودکار عمل کنند، اما از منظر حقوقی، فاعل یا متهم تلقی نمیشوند. بنابراین باید به حلقههای انسانیِ درگیر در طراحی، آموزش، نظارت و بهرهبرداری از الگوریتم توجه کرد.
2. مسئولیت نهادهای رسانهای
پلتفرمهایی نظیر شبکههای اجتماعی، سایتهای خبری و موتورهای جستوجو که از الگوریتم برای مدیریت محتوا استفاده میکنند، در صورت عدم شفافیت، تبعیض الگوریتمی، یا پخش اطلاعات نادرست ممکن است در معرض مسئولیت مدنی یا حتی کیفری قرار گیرند. مسئولیت این نهادها میتواند ناشی از اهمال در نظارت، طراحی تبعیضآمیز، یا عدم رعایت اصول بیطرفی و صحت محتوا باشد.
3. ضرورت تنظیمگری و شفافیت الگوریتمی
در سالهای اخیر، بحث الگوریتمهای قابل توضیح (explainable AI) و شفافیت الگوریتمی (algorithmic transparency) در محافل حقوقی و فناوری مورد توجه قرار گرفته است. این مفاهیم بر این نکته تأکید دارند که مخاطبان، تنظیمگران و حتی دادگاهها باید بدانند که تصمیمات رسانهای چگونه و بر اساس چه معیارهایی اتخاذ میشوند. این شفافیت نه تنها به افزایش اعتماد عمومی میانجامد، بلکه بستر مناسبی برای مسئولیتپذیری حقوقی و اخلاقی فراهم میآورد.
4. تلاقی الگوریتمها با حقوق بشر
در مواردی که الگوریتمها به نقض حقوق بنیادین مانند آزادی بیان، حق دسترسی به اطلاعات یا حریم خصوصی منجر شوند، میتوان با استناد به موازین حقوق بشر، عملکرد پلتفرم یا الگوریتم را به چالش کشید. این امر بهویژه در نظامهای حقوقی با رویکرد لیبرال و دموکراتیک، اهمیت بالایی دارد.
در نهایت، الگوریتمها از نظر حقوقی دیگر ابزارهای خنثی نیستند، بلکه به عنوان بازیگرانی پنهان اما مؤثر در نظم رسانهای، نیازمند نظارت و تنظیمگری دقیق، و طراحی سازوکارهای مسئولیتپذیر در قبال نتایج عملکرد خود هستند.
جمعبندی نهایی
در عصر دیجیتال و سلطهی فناوریهای نوظهور، رسانهها دیگر صرفاً ابزارهای انسانی نیستند، بلکه محصول ترکیب پیچیدهای از الگوریتمها، دادهها و هوش مصنوعی هستند. در چنین وضعیتی، حقوق رسانه با چالشهای نوپدیدی روبهروست که نهتنها قواعد سنتی حقوق را به آزمون میکشد، بلکه لزوم تدوین مقررات تازهای را نیز گوشزد میکند.
در این مقاله، به مهمترین ابعاد حقوقی تأثیر هوش مصنوعی بر رسانهها پرداختیم:
• ابتدا نشان دادیم که مسئولیت مدنی سامانههای هوش مصنوعی در حوزه رسانه، هنوز در بسیاری از نظامهای حقوقی تعریف روشنی ندارد و بهجای تمرکز بر خود سامانه، باید نقش انسانهایی چون طراح، توسعهدهنده یا بهرهبردار را بررسی کرد.
• سپس به مسئولیت کیفری در تولید محتوای جعلی توسط AI پرداختیم؛ جایی که تشخیص نیت مجرمانه، عامدانه بودن عمل، و تعیین فاعل انسانی چالشهای حقوقی اساسی ایجاد میکنند.
• در نهایت، به نقش حقوقی الگوریتمها در رسانهها پرداختیم و بر لزوم شفافسازی، نظارت و ایجاد مسئولیت برای تصمیمگیریهای الگوریتمی تأکید کردیم.
هوش مصنوعی، همزمان فرصتی برای ارتقاء دقت و گسترهی رسانههاست و تهدیدی برای تحریف واقعیت و نقض حقوق عمومی. بنابراین، قانونگذاران، حقوقدانان، فعالان رسانه و توسعهدهندگان فناوری باید در کنار هم، مسیر تنظیمگری هوشمند، مسئولیتپذیر و آیندهنگر را طراحی کنند؛ مسیری که از یک سو نوآوری را متوقف نکند و از سوی دیگر، عدالت و حقوق بشر را قربانی سرعت و سودآوری نکند.