ویرگول
ورودثبت نام
فلسفي
فلسفي
خواندن ۷ دقیقه·۴ سال پیش

ديپ فيك ميهمان ناخوانده حاكمان و شهروندان ايراني

ديپ فيك ميهمان ناخوانده حاكمان و شهروندان ايراني
ديپ فيك ميهمان ناخوانده حاكمان و شهروندان ايراني

در خردادماه 99 دو فيلم ديپ فيك[1]در فضاي رسانه‌اي كشور منتشر شد كه به نظر می‌رسد توجه لازم صاحب‌نظران به آن‌ها مبذول نگرديد. يكي از اين ويدئوهاي جعلي مربوط به گفت‌وگوي برد پيت با شبكه خبر سيماست كه در آن به تخريب اموالش در جريان تظاهرات اعتراضي به قتل جورج فلوید واكنش نشان مي‌دهد[2] و آن ديگري فيلمي از محمود احمدی‌نژاد است كه چهره‌اش بر بدن باب راس قرارگرفته، در برنامه لذت نقاشي كه از شبكه چهار سيما در حال نمايش است؛ انتقاداتي را متوجه وضعيت اقتصادي كشور مي‌كند.[3] گرچه در ايام متأخر شاهد توليد معدود و بازنشر پراكنده فيلم‌هاي ديپ فيك براي مخاطبان ايراني بوده‌ایم اما توليدات فوق‌الذکر فارغ از اهداف توليدكنندگانش كه در خوش‌بینانه‌ترین حالت جنبه سرگرمي دارد، به لحاظ محتوا، ارتقا كيفيت فني توليد همچنين فاصله زماني نزديك به همِ توليد و انتشار درعین‌حال كه مي‌تواند سرآغاز فصلي جديد در توليد اخبار جعلي[4] براي مخاطبان ايراني محسوب شود، به حاكمان و شهروندان نيز هشدار می‌دهد كه در آینده‌ای نه‌چندان دور شاهد توليد بيشتر و کیفی‌تر ديپ فيك‌هايي خواهند بود كه مسائلی جدی‌تر و حساس‌تر را هدف قرار خواهد داد.

ديپ فيك كه از دو واژه دیپ لرنینگ[5]و فیک تشکیل‌ و نامش نخستين بار در سال 2017 توسط يك كاربر با پُست ويدئويي در تارنماي رِديت بر سر زبان‌ها افتاد، به امكاني فناورانه گفته مي‌شود كه به واسطه هوش مصنوعي[6]و در قالب فيلم، صوت، عكس و نوشتار محتواي جعلي توليد می‌كند. ديپ فيك ابتدا در صنعت سرگرمی مورد توجه قرار گرفت و گسترش يافت اما پس از اندك زماني همچون فتوشاپ مورد سوءاستفاده قرار گرفت و دچار کژ کارکرد شد. براي توليد يك فيلم ديپ فيك مانند دو نمونه مذكور، تصاوير هدف موردنظر به سيستم واجد هوش مصنوعي معرفی می‌شوند و آنگاه دستگاه بر اساس بانک داده‌ای از تصاوير و صداهای موجود پیشین و با کمک سيستم شبكه‌هاي رقابتي مولد[7] كه شاخه‌اي مهم از يادگيري ژرف است؛ تصاوير هدف را بر مبنای تصاوير موجود می‌سازند و سرانجام شخصیتی جعلي ديده می‌شود که در حال انجام کار یا ايراد سخن است درحالی‌که روح شخص واقعي از آن بی‌خبر است. فيلم‌هاي ديپ فيك به چند دسته تقسيم می‌شود كه عبارت‌اند از فيلم طنزِ جعليِ يك فرد عادي، مبادله صورت توسط نرم‌افزارهای موجود در رسانه‌های اجتماعي، لب‌خوانی جعلي كه در آن چهره فرد واقعي است اما دهان و حركات لب جهت مطابقت با صداي جديد جايگزين شده است و در نهايت قرار گرفتن چهره فرد هدف بر بدن يك هنرپيشه يا چهره صاحب‌نام. (فلسفي، 1399: 59) از جمله فيلم‌هاي ديپ فيك معروف مي‌توان به ويدئوي موسوم به جنيفر بوشمي (قرار گرفتن چهره استیو بوشمی بر بدن جنيفر لارنس)، ويدئويي تبلیغاتی علیه مالاریا كه در آن ديويد بكهام به 9 زبان پيرامون خطر اين بيماري هشدار می‌دهد و همچنين فيلمي از باراك‌ اوباما كه در آن مطالبي توهین‌آمیز را خطاب به دونالد ترامپ بیان مي‌كند؛ اشاره كرد.

حال پس از اندك آشنايي با هيولايي كه می‌تواند بر زيست فردي و اجتماعي تک‌تک ما تأثیراتی شگرف و بعضاً غیرقابل‌جبران برجا نهد، خوانش تقريرات زير به حاكمان و شهروندان پيشنهاد می‌شود:

- به گمان نگارنده ديپ فيك ميهمان ناخوانده‌ ايرانيان است چراکه به نظر نمی‌رسد حاكمان و شهروندان براي ميزباني از اين غول ترسناك آماده باشند. آن‌ها نه‌تنها از آنچه انتظارشان را می‌کشد آگاه نيستند بلكه مرور خاطرات نحوه مواجهه با چنين نمونه‌هایي از تلگراف تا ويدئو، ماهواره، اينترنت و نرم‌افزارهای پیام‌رسان تلفن همراه آغاز قصه‌ پر غصه‌ای ديگر را تداعي مي‌كند. البته لازم به ذكر است كه ديپ فيك نه‌تنها براي ايران بلكه براي ديگر کشورها هم ميهماني ناخوانده است اما تفاوت اكثر كشورهاي جهان با كشور ما در نحوه چاره‌اندیشی جهت رويارويي با اين پديده است كه چندي است به آن مبادرت ورزيده‌اند.

- آسيب‌هاي اجتماعي حاصل از ديپ فيك‌ها كه در زمره آسيب‌هاي اجتماعي نوپديد دسته‌بندي مي‌شود، بسيار نگران‌کننده‌اند و از اين باب شناخت دقيق ابعاد مختلف آسيب‌زاي اين پديده حائز اهميت است. با توجه به مجال موجود به ذكر اين نكته بسنده مي‌شود که طبق گزارش‌هاي منتشره، زنان اعم از شهروندان عادي و چهره‌های مشهور قربانيان بالقوه فيلم‌هاي ديپ فيك محسوب می‌شوند.[8]لذا افكار عمومي در جوامعي مانند ايران كه زنان در معرض خشونت خانگي و چه‌بسا قتل خانگي (ناموسي) قرار دارند، نياز شديد به فهم اين مهم دارد ‌که در روزگار حاضر ممكن است فيلم روايتي واقعي و دقيق از آنچه رخ‌داده نباشد كه البته رساندن مخاطب به اين مرحله از پذيرش نياز به برنامه‌ريزي دقيق و همه‌جانبه دارد.

- ديپ فيك در عرصه سياست نيز سلاحي بسيار مخرب محسوب مي‌شود. تقارن ناميمون افزايش توليد ديپ فيك‌ها با اوج‌گیری اقتدارگرايان عوام‌گرا و نژادپرستان افراطي در جهان، تبعاتي جبران‌ناپذیر براي نظام بین‌الملل در پي دارد؛ چراكه افكار عمومي آنچه را كه می‌بیند، می‌شنود يا می‌خواند نمي‌تواند به قطع و يقين باور كند و اگر به باور افكار عمومي در اين خصوص خدشه وارد شود، نشانه‌ای نگران‌کننده از پيدايش مشكلي بسيار بزرگ است كه در تصمیم‌گیری‌های خرد و كلان فردي و اجتماعي رخ می‌نماید. ديپ فيك‌ها مفري جديد براي فرافكني و شانه خالي كردن از پذيرش مسئوليت توسط حاكمان نيز محسوب می‌شوند چراكه آنان اخبار و گزارش‌هاي منفي رسانه‌ها از عملكرد خود را كه مبتني بر قراين و شواهد است، به اين محتواهاي جعلي منتسبت كرده به سهولت از آن تبري می‌جویند. ‌چنین است كه واقعيت، اعتبار و روايي خود را در مسلخ اين امكان فناورانه ذبح‌شده می‌بيند. با توجه به ابعاد و نقش اثرگذار اين فناوري در معادلات سياسي -كه نمونه‌هاي آن را در كشورهاي مالزي و گابن شاهد بوديم-

رگولاتورها، شرکت‌های فعال در حوزه فناوري و رسانه‌اي همچنين خبرنگاران بايد در افشاي جعليات نقشي فعال‌تر ايفا كنند. به‌طور مثال وال‌استریت ژورنال در اين زمينه اقدام به آموزش نيروهاي خود كرده كه نحوه استفاده از گوگل ايميجز[9]و تین آی[10]براي راستي آزمايي عكس همچنين بهره‌مندی از نرم‌افزارهای ويرايش ويدئويي براي مشاهده فريم به فريم فیلم‌ها جهت بررسي و تشخيص دقيق چگونگي باز و بسته شدن چشم‌ها، حركات اطراف دهان و لب، فراز و فرود و لحن صدا، نور و سايه و حركات طبيعي و غیرطبیعی اندام‌ها با تمسك به منطق فازي[11]از آن جمله آموزش‌ها به شمار می‌آیند. ورود سازمان‌هاي رسانه‌اي داخلي به استقرار تيم‌هاي راستي آزما در تحريريه‌ها و برگزاري هر چه بيشتر دوره‌هاي آموزشي اعتبارسنجي، زمينه را براي ورود توانمندانه خبرنگاران و روزنامه‌نگاران به حوزه پرمخافت شناسايي ديپ فيك‌ها هموارتر مي‌كند.

- نبود قوانين مصرح بازدارنده براي اشخاص حقيقي همچنين قوانين نظارتي بر رگولاتورها و شرکت‌های فعال در حوزه فناوري و رسانه‌اي در موضوع ديپ فيك‌ها نيز محل تأمل است. برخي كارشناسان حقوقي و فني معتقدند قوانين موجود كه بر اعمالي مجرمانه چون افترا، سرقت هويت يا جعل عناوين دولتي جاري است؛ بر اين مهم نيز دلالت می‌کند. اين در ‌حال است كه گسترده شدن وضع قوانين نگراني‌هايي را نيز در پي دارد چراكه ديپ فيك بر مرز باريك ميان توليد محتواي طنز و تبليغات سياسي مخرب در حركت است؛ مرزي كه ممكن است وجوه مميزه آن همواره شفاف نبوده موجبات به حصر كشيده شدن آزادی‌ بيان را فراهم كند.

- برخي كارشناسان با توجه به آمار‌هایی چون نسبت كمّيِ توليدكنندگان به تحلیل‌کنندگان ديپ فيك‌ها که صد به يك تعبير شده؛ در امكان مقابله با اين توليدات اظهار ترديد مي‌كنند. اين كارشناسان معتقدند به رغم وجود برخي امكانات تشخيصي، روند شناسايي فیلم‌های ديپ فيك همچون رابطه موش و گربه در كارتون تام و جري بين الگوریتم‌های هوش مصنوعي و كارشناسان تشخیص‌دهنده فیلم‌های جعلي به تسلسلي نافرجام كه برتري هوش مصنوعي را در پي دارد مي‌انجامد؛ اما اين گمان به‌طور قطع از مسئولیت‌های حاكمان و شهروندان همچنين رسانه‌ها كه نقش واسط اجتماعي را بر عهده‌دارند؛ در مواجهه با اين پديده نمی‌کاهد. ثابت‌قدم ماندن در پذيرش مسئوليت، اميد به تابيدن نور حقيقت را از پس ابرهاي سياه ديپ فيك همچنان زنده نگاه می‌دارد.


منبع

- فلسفی، سید غلامرضا. (۱۳۹۹). پنج گفتار درباره اخبار جعلی. تهران: انتشارات آرین. چاپ اول.


[1] Deepfake كه با معادل‌هايي چون جعل عميق، جعل عمقي، جعل ژرف و يادگيري عميق جعل كردن از آن ياد می‌شود.

[2] www.youtube.com/watch?v=l_zBkFK93xY

[3] https://twitter.com/radiojibi/status/1271519328324792320

[4] Fake News عبارت است از توليد و نشر اطلاعات نادرست و / يا شايعه به منظور جهت دادن به افکار عمومی براي كسب‌ منافعي خاص.

[5] Deep learning يا يادگيري ژرف زیرشاخه‌ای از یادگیری ماشین است که از لایه‌های متعدد تبدیلات خطی به منظور پردازش سیگنال‌های حسی مانند صدا و تصویر استفاده می‌کند.

[6] Artificial Intelligence يا به‌اختصار AI به سيستم‌هایی گفته می‌شود که واكنش‌هايي مشابه رفتارهای هوشمند انسانی ازجمله درک شرایط پیچیده، شبیه‌سازی فرایندهای تفکری و شیوه‌های استدلالی انسانی و پاسخ موفق به آن‌ها، یادگیری و توانایی کسب دانش و استدلال برای حل مسائل دارند.

[7] Generative Adversarial Network (GAN)

[8] بیش از ۹۰درصد از محتوای تولیدشده‌ای که نام دیپ فیک بر آن می‌نهند و در فضاي رسانه‌اي در حال بازنشر است؛ غيراخلاقي است.

[9] https://images.google.com

[10] www.tineye.com

[11] Fuzzy Logic نوعی رویکرد در علم رايانه است که در منطق بولی به جای روش متداول صحیح یا غلط (صفر یا یک) که رايانه‌های مدرن بر پایه آن طراحی‌شده‌اند، از درجه درستی استفاده می‌کند.


ديپ فيكاخبار جعليهوش مصنوعيآسيب هاي اجتماعي نوپديددیپ فیک
پژوهشگر
شاید از این پست‌ها خوشتان بیاید