ویرگول
ورودثبت نام
فلسفي
فلسفي
خواندن ۲۹ دقیقه·۲ سال پیش

قصه پرغصه بازگرداندن غول ديپ فيك به بطري: ما سپر انداختيم

جهان براي مواجهه با ديپ‌ فيك  آماده نيست
جهان براي مواجهه با ديپ‌ فيك آماده نيست

انديشمندان حوزه هوش مصنوعي[1]درعین‌حال كه جهت نابودي يك سلاح بسيار خطرناك سياسي كه عبارت است از فیلم‌های جعليِ تولیدشده توسط رايانه كه بیش‌ترین تأثیر را در تضعيف جايگاه نامزدهاي انتخاباتي و گمراه‌سازی رأی‌دهندگان در انتخابات رياست جمهوري 2020 آمريكا دارد، با يكديگر در رقابت‌اند؛ هم‌صدا با هم پيامي مشترك را صلا می‌دهند: «جهان براي مواجهه با ديپ‌ فيك[2]آماده نيست».

اين پژوهشگران با مدنظر قرار دادن ملاك‌های كشف فیلم‌هاي جعلي، سامانه‌هایی خودكار طراحي کرده‌اند كه فیلم‌ها را تجزیه‌ و تحلیل ‌کنند كه برخي از اين ملاك‌ها عبارت‌اند از: ارزيابي نور، سایه‌ها، الگوهاي پلك زدن و چگونگي حركات سر و ابعاد واقعي چهره مانند نسبت زواياي سر و اجزاي صورت به يكديگر يا نحوه تكان دادن سر و لبخند ‌زدن. ليك به رغم تمام اين پیشرفت‌ها، محققان بر اين باورند كه گستردگي و تأثیرات عميق اين روش جاعلانه بر افكار عمومي بسي شديد و ماندگارتر از آن چيزي است كه تصور می‌شد لذا بر همين اساس نسبت به آغاز موج جديد كارزار‌های اطلاعات نادرست عمدي[3] در ايام انتخابات 2020 زنهار داده‌اند؛ روندي ناميمون كه تأثیر اخبار جعلي[4]بر افكار عمومي و نقش گروه‌های فريبكار فعال در فیس‌بوک را در تغيير نتيجه انتخابات رياست جمهوري 2016 آمريكا يادآور می‌شود. الیس ساموئلز[5]روزنامه‌نگار و سردبير بخش راستي آزمايي فیلم‌های آنلاين در روزنامه واشنگتن‌پست دراین‌باره مي‌گويد ديپ فيك این ایده را كه باورپذیری منوط به ديدن است، نقض كرده و اين مهم در آينده مبارزات سیاسی و نتايج حاصل از آن بسيار تعیین‌کننده است.

در اين ميان هوش مصنوعي در مقام ابزاري پرقدرت در هر چه باورپذيرتر شدن ديپ فيك‌ها و اقناع مخاطبان به نحوي مؤثر نقش‌آفرینی مي‌كند چنان‌که بستر و امكان ساخت فیلم‌های ديپ فيك تسهيل شده و در دسترس بسياري قرارگرفته است. ماهيت اين روش، امكان ساخت فيلم پيرامون كسي است كه هیچ‌گونه آشنايي و ديداري با سازنده فيلم نداشته‌ يا نسبت دادن گفتار يا كردار به شخصي است كه آن گفتار يا رفتار در شرايط واقع هیچ‌گاه از وي سر ‌نزده است. اين محتواهاي جعلي از طنز سرگرم‌کننده و جلوه‌های ويژه سينمايي مانند آنچه در فيلم شواليه تاريكي[6]ديده می‌شود تا فیلم‌های غیراخلاقی جهت آزارِ هدفمند زنان عادي همچنين سرشناس مانند اسكارلت جوهانسون[7]كه قربانيان بالقوه اين فناوري محسوب می‌شوند؛ را شامل می‌شود.

صاحبان نظر بيمناك‌اند در آستانه ايام رأی‌گیری رياست جمهوري 2020 و داغ‌تر شدن تنور رقابت‌هاي انتخاباتي از ديپ فيك در مقام عاملي كارا جهت اغفال رأی‌دهندگان و كاشت بذر ترديد در باور آنان و تخريب حريف، بیش‌ازپیش استفاده شود. بر همين اساس فرماندار ايالت كاليفرنيا در اكتبر 2019 قانوني را تصويب كرد كه به موجب آن توليد و نشر ديپ فيك جهت تخريب سياستمداران طي 60 روز به انتخابات، عملي مجرمانه محسوب شود.

هاني فريد[8]كارشناس حوزه قوانين ديجيتال در دانشگاه بركلي كاليفرنيا با توجه به آمار‌هایی چون نسبت كمّيِ توليدكنندگان به تحلیل‌کنندگان ديپ ‌فيك که به تعبير وي صد به يك است؛ پيرامون امكان غلبه بر اين فناوري اظهار ترديد مي‌كند. اين استاد علوم رايانه در دانشكده دارتموث كه قريب به دو دهه در حوزه تشخيص فیلم‌های دستکاری‌شده فعاليت دارد، می‌گوید كه با ريزبيني در مواردي چون پیکسل‌های تصوير و سعي در يافتن ايرادات جزئيِ آن يا موشكافي در روند گردش خون در صورت شخصیت‌ها، گاه می‌توان به واقعي يا جعلي بودن فيلم واقف شد. به رغم اين موارد فريد معتقد است هوش مصنوعي در كمترين زمان متصور، مرز اين علائم و نشانه‌ها را نيز درمی‌نوردد و روند شناسايي ديپ فيك‌ها همچون رابطه موش و گربه در كارتون تام و جري بين الگوریتم‌های هوش مصنوعي و خبرگان تشخيص فیلم‌های جعلي به تسلسلي نافرجام دچار مي‌شود.[9]

گرچه در ایالات‌متحده، ديپ فيك‌ها تبعات گسترده سياسي در پي داشته‌اند اما رسوایی‌هاي سياسيِ فيلم محور لزوماً به ديپ فيك‌ محدود نيست بلكه گاه دست‌کاری‌های ساده در فیلم‌ نيز در سپهر سياسي غائله برپا می‌کند كه شاهد مثال آن ويديوي پربيننده نانسي پلوسي[10]رئيس مجلس نمايندگان آمريكا و رهبر حزب دموكرات اين مجلس در مي 2019 است. بيش از سه ميليون بازديدكننده، در اين فيلم پلوسي را در حالي ‌دیدند كه دچار مشكل تكلم و عدم تعادل است. فيلم مذكور اين گمان را در بينندگان ايجاد ‌کرد كه اين عضو ارشد حزب دموكرات دارای مشکلات ذهنی بوده و از سلامت جسمی برخوردار نیست. مضاف آن‌كه جمهوري خواهان در آن هنگام مدعی شدند مشكل تكلم پلوسی ناشي از اعتياد وي به مسكرات است که پس از چندي‌ مشخص شد اين ویدئو با سرعتي ۲۵ درصد کمتر از حالت عادی بازتدوین و در نتيجه دستکاری‌شده بود.[11]

ايجاد بحران به يمن ديپ فيك فرامرزي بوده به جغرافياي آمريكا يا اروپا محدود نيست. به‌طور مثال در اواخر سال 2018 در آفريقاي مركزي، ويدئويي از علی بونگو اوندیمبا[12]رئیس‌جمهوری گابن توسط يك شبكه خصوصي تلويزيوني كامروني پخش شد كه وضعيت وخيم جسماني وي در عربستان را نشان می‌داد تا جايي كه گمان‌ها پيرامون مرگ بونگو در عربستان تقويت شد. اين گمانه‌زنی‌ها، انتقادهاي شديد مخالفان سياسي رئیس‌جمهوری گابن را به استناد ويدئوي جعلي پخش‌شده مبني بر ناتواني وي در اداره امور كشور در پي داشت تا جايي كه به بهانه‌ای براي كودتاي نافرجام ارتش اين كشور در ژانويه 2019 بدل شد.

اين بار به التهاب آفريني در آسيا به واسطه ديپ فيك نظر مي‌افكنيم. در ژوئن 2019 برخي اصحاب رسانه و اعضاي احزاب سياسي مالزي كه در گروهي واتس آپي عضو بودند، از تماشاي فيلمِ كوتاه بارگذاري شده‌ای در اين سايت شبكه اجتماعي كه رابطه غيراخلاقي دو مرد را نشان می‌داد غافلگير شدند. آنچه اين غافلگيري و در تعاقب آن پربیننده شدن فيلم مذكور را در ‌سريع‌ترين زمان ممكن رقم زد، شباهت فراوان يكي از آن دو شخص به يك وزير كابينه محلي بود. ساعاتي پس از انتشار اين ويدئو كه در سپهر سياسي مالزي از آن با عنوان فاجعه ياد شد؛ ويدئوي كوتاهي ديگر در فیس‌بوک منتشر و در آن، فرد ديگر حاضر در فيلم مزبور مدعي شد كه تصاوير بدون رضايت وي توسط آن چهره سياسي ضبط‌ و پخش‌شده است لذا از گروه مبارزه با فساد در مالزي درخواست كرد صلاحيت سياستمدار برجسته وابسته به حزب حاكم را بررسي كند. تحقيقات روزنامه مالاي‌ميل[13]در كوالالامپور به استناد اظهارات مقامات محلي حاكي از آن بود كه ظاهرِ اندام و نشانه‌های جسميِ وزيرِ در مظان اتهام، با آنچه در فيلمِ منسوب به او ديده می‌شد مطابقت نداشته؛ لذا انگشت اتهامِ توليد اين فيلم جعلي به سمت رقباي سياسي حزب حاكم نشانه رفت.[14]

ديپ فيك كه نخستين بار طي سال 2017 در يك پستِ تارنماي رِديت[15]از آن نام‌برده شده و در توليدش از فنِ هوش مصنوعيِ ديپ لرنينگ[16]استفاده می‌شود؛ در آمريكا به يك اهرم فشار عليه سياسيون از جمله ساكنان منطقه كپيتال هيل[17] بدل شده است تا جايي كه قانون‌گذاران رجا واثق یافتند كه ديپ فيك ضمن زير سؤال بردن اعتبارشان، مخل سلامت انتخابات و در ابعادي وسيع‌تر چالشي جدي براي امنيت ملي و حاكميت مردم‌سالارانه محسوب می‌شود. با عنايت به اين مهم كميته اطلاعات مجلس نمايندگان طي ژوئن 2019 جهت استماع نظر متخصصان هوش مصنوعي جلسه‌ای تشكيل و پيرامون این‌که ديپ فيك با سلب مشروعيت از رِسانه، چگونه موجب انكار رسانه از سوي مخاطب شده، امكان تشخيص صحيح را از وي می‌گيرد و با اين شرايط، مخاطب چگونه می‌تواند از تأثیر روان‌شناختیِ ماندگارِ ديپ فيك و هوش مصنوعي بر هوش و شخصيت خود رهايي يابد؛ اظهاراتي مطرح شد.

آدام شیف[18]نماینده دموكرات حوزه انتخابیه کالیفرنیا و رئیس کمیته اطلاعات مجلس نمایندگان پيرامون ميزان آمادگي نظام سياسي آمريكا در برابر ديپ فيك اظهار ترديد كرده ‌افزود كه گمان نمی‌كند مردم از آنچه انتظارشان را می‌کشد آگاه باشند.

راشل توماس[19]بنیان‌گذار يك آزمايشگاه يادگيري ماشين[20]در سانفرانسيسكو مي‌گويد يك كارزار اطلاعات نادرست عمدي با استفاده از فیلم‌های ديپ فيك بر بستر پلتفرم وب مدرن با توجه به ساختار اين پلتفرم انبوهي از مخاطبان را جذب كرده؛ بيشتر و سریع‌تر از حقيقت اشاعه می‌یابد. توماس معتقد است محتواي جعلي به‌طور تضمین‌شده بر افكار عمومي مؤثر نيست چراکه انسان‌ها در مقام موجوداتي اجتماعي اموري را باور می‌کنند كه كثيري از همنوعانشان به آن مؤمن باشند لذا آناني كه در پي تأثیرگذاری بر افكار عمومي از طریق توليد و نشر مجعولات هستند، كاري ساده در پيش ندارند.

در این ‌بین نبود قوانين مصرحِ ناظر بر ديپ فيك موضوعي قابل تأمل است. البته برخي كارشناسان حقوقي و فني معتقدند قوانين مصوب كه بر اعمالي مجرمانه چون افترا، سرقت هويت يا جعل عناوين دولتي جاري است؛ بر اين مهم نيز دلالت می‌کند. با این حال به نظر می‌رسد گسترده شدن وضع قوانين نيز نگراني‌هايي در پي دارد چراكه ديپ فيك بر مرز باريك ميان توليد محتواي طنز كه متمم اول قانون اساسي ایالات‌متحده از آن حمايت می‌کند و تبليغات سياسي مخرب در حركت است؛ مرزي كه ممكن است وجوه تمايز آن همواره واضح نباشد.

برخي نگران‌اند امكان تخدير يا هيجانات ناشي از تماشاي فیلم‌های جعلي، موجب شود مردم به استنادات و شواهد جعليِ تبهكاران ايمان بياورند. محققان اين مشكل را بی‌تفاوتی نسبت به امر واقع نامیده‌اند[21]؛ بدين معني كه فرد براي فهم آنچه واقعيت دارد و آنچه واقعيت ندارد، بسيار تلاش می‌کند ليكن در نهايت آنچه را كه با وابستگی‌های پيشينش پيوند دارد، می‌پذیرد.

نتايج مركز تحقيقات پيو[22]كه در ژوئن 2019 منتشر شد مؤید اين امر است، چراکه در آن تحقيق حدود دوسوم از پرسش شوندگان آمریکایی اظهار نمودند فیلم‌ها و تصاوير جرح ‌و تعدیل‌شده به مشكلي اساسي در تشخيص امر واقع در زندگی روزمره‌شان تبدیل‌شده است. بيش از یک‌سوم از پرسش شوندگان نيز معتقد بودند اخبار ساختگي، موجبات بی‌اعتمادی و كاهش كلي ميزان دريافت اخبار توسط آنان را رقم زده است.

اين نگراني كه ديپ فيك‌ها مردم را در پذيرش فيلم‌هاي واقعي دچار ترديد و انكار كند؛ پدیده‌ای است كه رابرت چسني[23]و دنيل سترون[24]استادان حقوق، آن را سود حاصل از دروغ نام نهادند؛ به اين معني كه قبح زدايي از جعليات و دست‌کاری محتوا سبب ‌شود حتي پس از افشاي دروغ، اعتماد به هرگونه اطلاعات پيرامون آن موضوع خاص براي افكار عمومي دشوار شود؛[25]مانند دونالد ترامپ كه مدعي شد ویدئوی مربوط به سال ۲۰۰۵ وي، وقتی‌که به برنامه تلويزيوني اكسس هاليوود مي‌رفته و در مسير با بیلی بوش مجري وقت برنامه، پيرامون تلاش‌هایش برای تعرض به زنان و اغواي زنی متأهل صحبت كرده و آن صحبت به سبب باز بودن میکروفن ضبط‌شده بود، جعلي است؛ تا این‌که واشنگتن‌پست مستنداتي فني از ‌جمله صداي وي را جهت اثبات اصالت محتوا در اكتبر 2016 منتشر و ترامپ را بابت اظهاراتش به عذرخواهي علني واداشت. در اين مورد و ديگر موارد مشابه طي مبارزات انتخاباتي سال 2016 و پس‌ازآن، به رغم پوشش گسترده رسانه‌ها نه‌تنها افكار عمومي در پذيرش واقعيت در موضع ترديد قرار گرفت بلكه به ترامپ اين امكان را داد تا بیشتر توجهات را به خود جلب كند.[26]

اعضاي دو حزب دموكرات و جمهوری‌خواه همچنين مقامات برگزاركننده مبارزات انتخابات 2020 ادعا مي‌كنند جهت مقابله با آسیب‌هاي ناشي از ديپ فيك به آمادگي اندك نياز است تا سايت‌ شبکه‌هاي اجتماعي و تارنماهاي پخش فیلم‌های ويدئويي، به شناسايي و حذف جعليات اقدام كنند؛ غافل از این‌که شرکت‌های فناوري سیاست‌هایی گوناگون در حوزه حذف فیلم‌های جعلي دارند و بيشتر آنان خود را به بارگذاري شدن فیلم‌های واقعي در پلتفرمشان ملزم نمی‌دانند.

باراك اوباما در مي 2019 طي يك سخنراني در كانادا اظهار داشت كه مردم می‌توانند نحوه صحبت كردنش را پيرامون بيان هر چيز شبیه‌سازی كنند. وي در ادامه ضمن رد مطالبي كه پيرامون نقش بازار ايده‌ها[27]در مصائب ناشي از ديپ فيك مطرح می‌شود، تصريح كرد: بازار ایده‌ها شالوده عملكرد مردم‌سالارانه ماست و اگر معياری مشترك مبني بر این‌که چه چيزي درست و چه چيزي نادرست است، وجود ندارد؛ ايرادي است كه به ما برمی‌گردد نه به ماهيت اين بازار.

فناوري ديپ فيك به سرعت در حال پيشرفت است كما این‌که طي مي 2019 پژوهشگران هوش مصنوعي در موسسه علم و فناوري اسكولكوو[28]در مسكو از سامانه عكس معدود[29]رونمايي كردند كه می‌تواند با تعدادي محدود تصویر چهره، تصاویر متعددِ متقاعدكننده جعلي از آن چهره توليد و سپس آن تصاوير را به فیلم تبدیل كند. ايگور زاخاروف پژوهشگر ارشد اين گروه تحقيقاتي با عنايت به بازنگري مداوم همكارانش در فناوري موردبحث، از هرگونه اظهارنظر شخصي پيرامون اين موضوع استنكاف می‌ورزد اما در فرازي از مقاله منتشره از سوي گروه تحقيقاتي مذكور آمده كه دستاورد حاصل از اثر شبکه‌ایِ توليد فناوری‌های جلوه‌های ويژه ويدئويي، فراتر از حد انتظار بوده و همچنين تأکید شده كه این‌ فناوري نوين با فناوري آواتار عصبي همخوان است.

گروهي از محققان هوش مصنوعي نيز در موسسه فناوري اطلاعات ماكس پلانك و دانشگاه‌هایی چون استنفورد و پرینستون سامانه‌ای اختصاصي طراحي کرده‌اند كه می‌تواند گفته‌های فرد در فيلم را تغيير دهد. اين سامانه از راه تغيير برخي متن‌ها، هجاها و حركات دهان شخص، توسط هوش مصنوعي عمل مي‌كند كه در نهايت به تغييري يكنواخت در شيوه صحبت كردن موسوم به صحبت با سر منتهي می‌شود.

اوهاد فريد[30]پژوهشگر ارشد دانشگاه استنفورد می‌گوید كه فناوري مذكور می‌تواند در خدمت توليد فيلم با هزينه نازل همچنين برگردان فیلم‌های بومي به زبان‌های بین‌المللی جهت استفاده مخاطبان مختلف مورد بهره‌مندی قرار گيرد. وي می‌افزاید كه امكان سوءاستفاده هم از اين فناوري وجود دارد چراكه به اين واسطه می‌توان به تحريف فیلم‌های ويدئويي اقدام كرد يا به افراد صاحب‌نام افترا بست. فريد ضمن تأکید بر این‌که فیلم‌هایی كه با چنين ابزاري ساخته می‌شوند، بايد با عنوان تركيبي معرفي شوند؛ خواستار آن شد كه رگولاتورها، شرکت‌های فعال در حوزه فناوري و روزنامه‌نگاران در افشاي جعليات نقشي فعال‌تر ايفا كنند. پژوهشگر ارشد دانشگاه استنفورد می‌گوید در مجموع مردم نياز به فهم اين مهم دارند ‌که فيلم ممكن است روايتي دقيق از آنچه اتفاق افتاده نباشد.

در همين حال محققان هوش مصنوعی فیس‌بوک برای مبارزه با دیپ فیک و مخفی نگه‌داشتن هویت افراد، یک سامانه یادگیری ماشین را چنان توسعه داده‌اند که می‌تواند هویت افراد را در ویدیوها (از جمله ویدیوهای زنده) بلادرنگ مخفی كند. در این سامانه، یک رمزگذار خودكار در همکاری با سامانه‌ای که چهره‌ها را طبقه‌بندی می‌کند، صورت فرد را در عین حفظ کردن حالت طبیعی، به نحوی تغییر می‌دهد که سامانه‌های تشخیص چهره از شناسایی آن ناتوان می‌مانند و فقط انسان‌ها قادر به تشخیص هویت واقعی فردند. محققان فیس‌بوک در مقاله‌ای که در مورد سامانه مخفی کننده هویت خود نوشته‌اند، با اشاره به از بین رفتن حریم شخصی در اثر استفاده از سامانه‌های تشخیص چهره و اثراتي زیان‌بار که فناوری جابه‌جایی چهره در پی دارد، می‌گویند با توجه به اتفاقات اخیر در حوزه ديپ فيك که نگرانی‌هایی را در مورد پیشرفت فناوري تشخیص چهره و سوءاستفاده از آن به وجود آورده، نیاز به درک روش‌هایی که به‌طور موفقیت‌آمیز عمل ضد شناسايي[31] را انجام می‌دهند؛ حس می‌شد. سامانه موردبحث روی جنیفر لارنس آزمایش شد و درعین‌حال كه در چهره این هنرپيشه تغییراتي اندک انجام گرفت ولی هویت او همچنان توسط انسان قابل‌تشخیص است. محققان هوش مصنوعی فیس‌بوک یکی از نقاط قوت این سامانه را عدم نیاز به آموزش آن برای هر ویدیو یا فرد می‌دانند و این‌که فقط اندكی در زمان ویدیو تغییر ایجاد می‌کند. با وجود آزمایش موفقیت‌آمیز این سامانه آن‌ها معتقدند هنوز مدت زمانی زیاد تا تجربه آن در فیس‌بوک فاصله‌دارند. سخنگوی فیس‌بوک به تارنماي VentureBeat[32] گفته كه این شرکت برنامه‌ای برای به‌کارگیری این تحقیق در محصولات خود ندارد. با این ‌حال از این سامانه می‌توان برای مبارزه با سامانه‌های تشخیص چهره شرکت‌های ثالث که فعالیت‌های کاربران را تحت نظر می‌گیرند، استفاده کرد و اثرات ویدیوهای دیپ فیک را خنثی نمود.[33]

ويدئوهاي ديپ فيك نمونه‌ای از انقلابي است كه هوش مصنوعي در عرصه اطلاعات نادرست عمدي ايجاد كرده؛ كما این‌که سامانه‌هاي‌ جديد هوش مصنوعي زباني مانند نسخه دومِ مبدلِ پيش آموزش داده‌شده مولد[34]كه توسط آزمايشگاه تحقيقاتي اُپن اي آی[35] طراحی‌شده، متون نوشتاري توليد می‌کنند. این الگوریتم مدل‌سازی زبان از ویژگی مولد بودن برخوردار است؛ درحالی‌که این ویژگی منحصر به زبان انسان است. مولد بودن زبان به معنای توانایی تولید صورت‌های جدید زبانی بر اساس قواعد موجود در زبان است که یکی از ویژگی‌های مهم آن به شمار می‌رود.[36]در توليد ويدئوهاي ديپ فيك تصاوير هدف به سامانه معرفی می‌شوند و سامانه بر اساس بانک داده‌ای از تصاوير و صداهای موجودِ پیشین و کمک روش‌هایي نظیر شبکه‌ مولد متخاصم[37] كه شاخه‌ای مهم از يادگيري ژرف است؛ تصاوير هدف را بر مبنای تصاوير موجود ‌ساخته و درنهایت شخصیتی ديده می‌شد که در حال انجام کار یا ايراد سخن است درحالی‌که روح شخص واقعي از آن بی‌خبر است. (فلسفي، 1398: 82 و 83) در توليد نوشتار نيز با استفاده از آن دسته متون نوشتاري كه در قالب داده‌هاي خام اوليه به سامانه وارد می‌شود، بند‌هایی زياد در ادامه متن ورودي با همان لحن، مضمون و سبك نگارش توليد می‌شود. اگر به سامانه تيتر جعلي بدهيد، بقيه مطلب را با نقل‌قول‌ها و نمودارهاي جعلي توليد می‌کند يا می‌تواند با در اختيار داشتن خط اول يك داستان كوتاه، شخصیت‌پردازی كرده و به فوریت داستان كوتاهي پرطرفدار بنویسد.[38]به رغم این‌که ممكن است متن به سمت مغلق‌گویی گرايش يابد، ليك اين امكان، مستمسكي ارزشمند براي ربات‌های هرزه نگار و سازندگان اخبار جعلي محسوب مي‌شود. نسخه دومِ مبدلِ پيش آموزش داده‌شده مولد، يك مدل‌ساز زبان طبيعي با 5/1 ميليارد مؤلفه در مجموعه‌ای مركب از 8 ميليون صفحه وب بوده و هدف از طراحي آن، پیش‌بینی درون‌متنی واژه پسين بر اساس واژگان پيشين است. سامانه مذكور نسخه‌اي ارتقا يافته است كه نسبت به نمونه پيشين[39] در حوزه مؤلفه و مقدار داده، 10 برابر ارتقا يافته و به شكلي طراحی‌شده كه به سهولت می‌تواند واژه پسين درون‌متنی را در چارچوب بانك داده متنيِ اينترنتي كه معادل 40 گيگابايت برآورد مي‌شود؛ گمانه‌زنی و توليد كند.[40]

لازم به ذكر است كه اين روش بر روي متن سخنرانی رهبران سياسي جهان در مجمع عمومي سازمان ملل متحد بين سال‌های 1970 تا 2015 آزمایش‌شده است.[41]در مقابل جهت مواجهه با اين فناوري، پژوهشگران دانشگاه واشنگتن و موسسه هوش مصنوعي آلن[42]يك سامانه كاشفِ متن جعلي به نام گرور[43]را در مي 2019 معرفي کرده‌اند كه ظرفيت آشكارسازي اخبار جعلي عصبي تولیدشده به وسیله ماشين را دارد.

مضاف بر پژوهش در حوزه ديپ‌ فيك‌هاي ويدئويي و نوشتاري جعلي، موضوع تشخيص صداهاي جعلي متقاعدکننده نيز در افق فكري كارشناسان اين حوزه قرار دارد. پژوهشگران دانشگاه آلاباما در بيرمنگام كه در حوزه صدا پژوهش می‌کنند، با استفاده از سه تا پنج دقیقه صدای فرد هدف که زنده ضبط‌شده یا از یوتیوب يا رادیو به‌دست‌آمده، ‌توانسته‌اند صدایی جعلی تولید کنند که انسان و سامانه‌های ایمنی بيومتريك در تشخيص جعلي بودن آن ناتوان‌اند. نيتش ساكسنا[44]استاد و پژوهشگر اين دانشگاه پيرامون ميزان تأثیر اقناع گرايانه اين صداهاي جعلي اظهار می‌دارد كه با این فناوری می‌توان با صدای مادر برای فرزندش با كيفيتي پیام گذاشت كه فرزند نتواند جعلي بودن صدا را تشخيص دهد یا شخصی را با انتشار یک فایل صوتی جعل‌شده از صداي خودش بدنام کرد. (سلطاني فر، سليمي و فلسفي، 1396: 59)

محققان هوش مصنوعي شركت رسانه‌ای فیس‌بوک در ادامه مساعيِ پژوهشگران دانشگاه آلاباما توانسته‌اند با شبیه‌سازی صداي افراد، گفتاري ماشيني توليد كنند كه به‌شدت فريبنده است. جهت انجام اين مهم، سامانه مِل نت[45]بر اساس داده‌های ورودي شامل صدها ساعت سخنرانی در همايش تِد و کتاب‌های صوتي، در چارچوب مدل‌های صوتي طراحی‌شده نسبت به جعل هويت افراد اقدام می‌کند. به‌طور مثال اين سامانه می‌تواند عبارت «گرفتگي عضلات به هنگام شنا خطري بزرگ است» را با صداي بيل گيتس، جين گودال[46]و بسياري ديگر بسازد. مدل طراحی‌شده، امكان توليد اصوات جعلي رایانه مبنا را در قالب سخنراني، موسيقي و سنتز متن به گفتار داراست كه فراتر از تصورات، برآوردها و قضاوت‌های انجام‌گرفته در اين زمينه است.[47] از مصاديق ديپ فيك‌هاي صوتي می‌توان به حادثه‌اي در اوت 2019 اشاره كرد كه طي آن تبهکاران ديجيتالي به كمك ديپ فيك و جعل صدای مدیرعامل یک شرکت بریتانیایی، موفق شدند مبلغ ۲۴3هزار دلار را از شركت مذكور سرقت كنند![48]

از دیرباز در حوزه هوش مصنوعي به نسبت حمایت‌ها و اعتباراتي كه صرف ساخت رسانه‌های جعلي ‌شده؛ به شناسايي رسانه‌های جعلي كمتر التفات می‌شود. سبب اين امر را سهل و ممتنع پنداشتن طراحي راه‌های شناسايي رسانه‌های جعلي و اخبار توليدي آن‌ها می‌پندارند؛ هرچند نصير مِمُن[49]استاد مهندسي و علوم رايانه در دانشگاه نيويورك معتقد است اين رويكرد به سبب عدم امكان درآمدزايي از راه شناسايي رسانه‌های جعلي بوده، ديگرِ توجيهات نوعي فرار به جلو محسوب می‌شود.

بخش عمده سرمایه‌گذاری جهت پژوهش پيرامون يافتن راه‌های شناسايي ديپ فيك‌ها، توسط دفتر نمايندگي پروژه‌های پژوهشی پیشرفته دفاعی موسوم به دارپا[50]كه وابسته به وزارت دفاع آمريكاست؛ تأمین می‌شود. دارپا از سال 2016 حامي مالي برنامه طراحي زيرساختِ تشخيص، تجزیه‌ و تحلیل، تفسير، ارائه شواهد و بازيابي خودكار فیلم‌ها و تصاوير ديجيتال دستکاری‌شده[51]است كه توسط جمعي از پژوهشگران طراز اول و گروه‌های تحقيقاتي بسيار معتبر اين حوزه در حال انجام است. مت توريك[52]متخصص بينايي ماشين[53]كه هدايت اين برنامه را بر عهده دارد، می‌گوید امكاني كه جهت شناسايي رسانه‌های جعلي و اخبار توليدي آن‌ها با نام رسانه‌های تركيبي[54]طراحی‌شده، يك فناوري تدافعي است كه نه‌تنها عليه دشمنان خارجي بلكه دشمنان سياسي داخلي و اوباش اينترنتي قابل به‌کارگیری است.

توريك اظهار می‌دارد از زمان پيدايش اولين رسانه‌ها تاکنون، حکومت‌ها و دولت‌ها امكان اعمال نفوذ و دست‌کاری در محتواي رسانه را داشته‌اند اما طراحي سامانه‌های قوي كشف جعليات مانند رسانه‌های تركيبي سبب می‌شود گروه‌های تبهكارِ داراي منابع و امكانات محدود كه در حوزه توليد و نشر اخبار جعلي فعال‌اند، با انجام محاسبه هزينه – فايده، از ارتكاب اين عمل مجرمانه خودداري كنند.

محققان می‌گویند براي آشكارسازي راز ديپ فيك، در حال ساخت ابزاري هستند كه در محيطي كه در محافل رمزنگاري، به محيط فاقد اعتماد شهرت دارد؛ كار می‌کند. محيطي كه در آن يافتن جزئياتي معتبر پيرامون سازنده ويدئو همچنين منشأ و رصد چگونگي نشر آن ناممكن است. در این ‌بین سرعت كاركرد ابزار مذكور حائز اهميت است چراکه هر دقیقه‌ای كه صرف بررسي محتواي منتشرشده در اين فضا ‌شود، ويدئو كليپ‌هاي موردنظر بارها و بارها در وب نشر می‌یابند.

كارشناسان خبره حوزه شناسايي فیلم‌های جعلي تمركز خود را بر طيفي گسترده از شاخص‌هایی دقيق مانند شكل نور و سايه، زواياي صورت و ميزان وضوح يا محو بودن آن‌ها همچنين ميزان لطافت و سنگيني مو و لباس معطوف نموده‌اند. با این‌ وجود در برخي موارد، يك ويرايشگر ماهرِ تصاوير ويدئويي می‌تواند با كاهش ضريب خطاهاي احتمالي در جعل فيلم، راستي آزمايي را براي كارشناسان دشوارتر كند.

پژوهشگران دانشگاه‌های كاليفرنيا در بركلي و كاليفرنياي جنوبي با روشي جديد، يك سامانه هوش مصنوعي ساخته‌ و در قالب يك فعاليت كارگاهي، ساعت‌هایی مديد از فيلم هیلاری کلینتون، باراك اوباما، برنی سندرز، دونالد ترامپ و الیزابت وارن[55]را در اختيار سامانه مذكور قرار دادند تا بر اساس طراحي انجام‌گرفته، جزئی‌ترین واحدهاي حركت اجزاي صورت شخصیت‌ها را با دقتي بسيار بالا واكاوي كند. طرز كار اين سامانه به نحوي است كه حركات اجزاي صورت را بر مبناي نقاط داده‌ای، انقباض غيرارادي عضلات چهره، چین‌خوردگی بيني، افتادگي چانه، فشردگي لب‌ها و در نهايت ساختاربندي كلمات، با دقت موردبررسی قرار می‌دهد؛ از جمله این‌که چگونه افراد در زمان صحبت، لب بالايي خود را بالابرده يا به هنگام اخم كردن، سرِ خود را تكان می‌دهند.[56]

جهت آزمودن مدل‌های بيومتريكِ نرم، هاني فريد و گروهش طي يك همكاري مشترك با گروهي از طراحان آواتارِ ديجيتال، ضمن بازآفريني چهره خود بر اساس ديپ فيك، به مبادله چهره‌های هيلاري كلينتون، ترامپ و وارن با چهره طرفدارانشان به كمك فناوري مذكور در برنامه طنز تلويزيوني با عنوان پخش زنده شنبه شب اقدام كردند. جمع‌بندی نتايج ارزيابي، بر دقت 92 تا 96 درصدي آن سامانه در شناسايي انواع گوناگون جعليات گواه بود: از تشخيص فيلم طنز جعلي يك فرد عادي گرفته تا مبادله صورت توسط نرم‌افزارهای موجود در رسانه‌های اجتماعي، لب‌خوانی جعلي كه در آن چهره فرد واقعي است اما دهان و حركات لب جهت مطابقت با صداي جديد جايگزين شده و در نهايت قرار گرفتن چهره فرد هدف بر روي بدن يك هنرپيشه[57].

جهت تبيين اين مساعي، نتايج تحقيقي با عنوان صيانت از رهبران جهان در برابر ديپ فيك كه با سرمايه‌گذاري مايكروسافت، گوگل و دارپا انجام‌شده؛ در همايش تخصصي سالانه پيرامون بينايي ماشين و تشخيص الگو كه طي ژوئن 2019 با حمايت مالي مشهورترين شرکت‌های آمريكايي و چيني فعال در حوزه هوش مصنوعي، در كاليفرنيا برگزار شد؛ در كنار ديگر مقاله‌های مرتبط ارائه‌شده است.[58]

سام گريگوري[59]مدير طرح و برنامه سازمان حقوق بشري مردم‌نهاد ويت نِس[60]كه به آموزش روزنامه‌نگاران غیرحرفه‌ای جهت تهيه گزارش ويدئويي از موارد نقض حقوق بشر كمك می‌کنند؛ می‌گوید كه تمامي پلتفرم‌های رسانه‌هاي اجتماعي بايد حول يك سامانه ايمنِ اشتراک‌گذاری كه جهت كشف و توقف محتواهاي جعليِ پربيننده طراحی‌شده؛ به اجماع برسند. گريگوري معتقد است بررسي چهره سياستمداران شاخص به روش هاني فريد، جهت صيانت از رهبران عالی‌رتبه به كار می‌رود و اين در حالي است كه سیاستمداران محلي، روزنامه‌نگاران و ديگرِ مردم، هم چنان در برابر ديپ فيك آسیب‌پذیرند.

هاني فريد انتظار دارد رسانه‌های گروهي به ابزار كشف ديپ فيك مجهز شوند تا به ارزيابي اخبار تصويري مبادرت ورزند و اين در حالي است كه دسترسي فراگير به اين ابزار، به نوبه خود تهديد نيز محسوب می‌شود چراكه در اين شرايط، تولیدکنندگان ديپ فيك‌ها امكان آشنايي با رموز اين ابزار را يافته، نسبت به دور زدن راه‌های تشخيص اقدام می‌کنند. اين بازي موش و گربه دیر زمانی است محققان حوزه قوانين ديجيتال را نااميد كرده، چراکه اطمينان یافته‌اند هر روشي كه به تشخيص ديپ فيك‌ها می‌انجامد، موقت و داراي تاريخ انقضايي کوتاه مدت است.

شاهد اين مدعا، ثمره همكاري وِي‌سي لو[61]مدير آزمايشگاه بينايي ماشين دانشگاه ايالتي نيويوركِ شهر آلباني در پژوهشي است كه سال 2018 انجام شد. حاصل تحقيق مذكور به يافتن سرنخي مهم در حوزه ديپ فيك منجر شد كه عبارت بود از عدم پلك زدن شخصیت‌هايِ فیلم‌های جعلي. دوام شهد اين پيروزي تحقيقاتي بسيار كوتاه بود چراكه تنها دو هفته پس‌ازاین كشف، لو رایانامه‌ای از يك سازنده ديپ فيك دريافت كرد كه در آن ذکرشده بود مشكل عدم پلك زدن شخصیت‌های ويدئوهاي جعلي را حل كرده است!

اين مدير آزمايشگاه بينايي ماشين معتقد است دست‌کاری رسانه‌ای به واسطه ديپ فيك كه منجر به تغيير ماهرانه فهم مردم از سياستمداران، رويدادها و ایده‌ها می‌شود؛ پيامدهاي روان‌شناختی گسترده در پي دارد.

لو در ادامه می‌افزاید: شرايط به‌گونه‌ای است كه مخاطبان در عين آگاهي نسبت به جعلي بودن فيلم، همچنان به تماشاي آن می‌نشینند. لو اين رفتار را توهم زا ‌دانسته می‌گويد كه چنين رفتاري آسیب‌هایی بسيار در پي دارد؛ ليكن زدودنش نيز به سختی ميسر است. اين استاد دانشگاه ايالتي نيويورك معتقد است چنين محتواهايي از هرکجا می‌تواند در اختيار مخاطب قرار گيرد چراكه اينترنت تمامي ديوارهاي بلند حصر ارتباطات را درهم‌شکسته است.

پژوهشگران بر اين اعتقادند كه فيلم‌هاي جعلي داراي كيفيت تصويري بالا، با سهولتي بيشتر قابل‌شناسایی‌اند؛ چراكه امكان مشاهده هر چه بيشتر جزئيات، ضريب تفكيك جعلي از واقعي بودن را به ميزاني فراوان افزايش مي‌دهد؛ اما قرار گرفتن چنين فيلم‌هايي بر پلتفرم وب مدرن اين امكان تشخيص را سلب می‌کند چراكه بيشتر قريب به اتفاق رسانه‌های اجتماعي و پيام رسان‌ها، جهت سهولت و سرعت هرچه بيشتر به اشتراك گذارده شدن فیلم‌های خود، آن‌ها را در قالب‌هایي فشرده بر اين بستر بارگذاري می‌کنند؛ كه اين امر موجبات حذف جزئيات فیلم‌ها را كه سرنخ‌هایی مهم جهت كشف ديپ فيك محسوب می‌شوند؛ فراهم می‌کند.

موارد مذكور سبب شده برخي افراد، فرجام چالش تشخيص فیلم‌های جعلي را ناممكن بپندارند لذا محققان بر آن شدند تا با تمركز بر سامانه اصالت سنجی تلاش كنند صحنه‌ها، درست همان‌طور كه فیلم‌برداری می‌شود به نمايش درآيد كه از اين روند در اصطلاح با عنوان اثرانگشت ياد می‌شود.[62]اين امر می‌تواند به سهولت كشف جعليات كمك كند ليكن تحققش در گرو حصول توافق سازندگان تلفن‌های همراه هوشمند، دوربین‌ها و طراحان تارنماهاست؛ يك پيشنهاد با دورنمايي كه تحققش سال‌ها به طول مي‌انجامد.

در اين رابطه ممن به استناد پانزده سال تجربه كار در حوزه تشخيص فیلم‌های جعلي بر اين باور است كه از طريق احراز هويت نمی‌توان جهت كشف فيلم‌هاي جعلي جواب گرفت. او می‌گوید با توجه به ويدئوهاي بارگذاري شده در فیس‌بوک و مواردي كه حول واتس آپ مطرح است، درصد موفقيت چنين اقداماتي به اما و اگرها منوط شده و اين در حالي است كه دشمنان واقعيت، توان خود را در توليد جعليات مضاعف نموده‌اند.

در همين چارچوب حتي آن دسته كارزار‌های سياسي كه دیری است عليه اشتباهات ويدئويي آسیب‌زننده فعال‌اند؛ در چگونگي مواجهه با ابزارهاي جديدِ اغفال توده مردم اظهار سردرگمي كرده‌اند. تني چند از مسئولان اين پویش‌ها اميدوارند كه شرکت‌های فناوري، با استفاده از اهرم‌هاي قانوني با شدتي بيشتر با موارد جعلي برخورد كنند.

يك مقام رسمي كميته ملي حزب دموكرات گفت كه حزبش به برگزاري سلسله كارزار‌هایی جهت نحوه مبارزه با اطلاعات نادرست عمدي و كاهش فشارها از سوي رسانه‌های اجتماعي كمك كرده است. به موازات اين اظهارنظر يك مقام رسمي كميته ملي حزب جمهوری‌خواه نيز گفت ضمن این‌که به اعضاي حزبش پيرامون محتواهاي مشكوك هشدارهاي لازم داده‌شده، گروهي از كارشناسان حوزه ديجيتال آن حزب نيز در حال همكاري با شركت‌های معظم فناوري جهت زدن برچسب‌ به مطالب و حساب‌های كاربري ناامن هستند.

اما شركت‌های مذكور پيرامون حذف، زدن برچسب، تنزل رتبه و حفظ جعليات از مشي يكسان پيروي نمی‌کنند. به‌طور مثال يوتيوب فيلم تحریف‌شده پلوسي را كه شرح آن به‌اختصار رفت، به سرعت از تارنماي خود حذف و اعلام كرد كه فيلم مذكور سياست اين سايت شبكه اجتماعي را با عملي گمراه‌کننده نقض كرده است اما فیس‌بوک ضمن خودداري از حذف ويدئوي مذكور به نشريه پست گفت كه پلتفرم مذكور فاقد سياستي است كه كاربران را ملزم به بارگذاري اطلاعات درست در اين سايت شبكه اجتماعي نمايد؛ مضاف این‌که نيك كلگ[63]سخنگوي ارشد فیس‌بوک تصريح كرد گفتار و مباحث سیاسی سیاستمداران از بررسی واقعیت معاف می‌شود؛ اگر و حتي مطالبشان قوانین اين سايت شبكه اجتماعي را نقض كند، آن محتوا همچنان روی این پلتفرم باقی می‌ماند؛ چراكه به گفته وي سانسور با آنچه فیس‌بوک به آن اعتقاد دارد، مغایر است.[64]

يوتيوب اعلام كرد پيگيري و سرمایه‌گذاری در حوزه رسانه‌های تركيبي را در دستور كار خود قرار داده و اين را با مساعي پيشين خود مانند مبارزه با هرزه نگاری و يافتن فیلم‌هایی كه قوانين حق تكثير را نقض کرده‌اند - كه با كمك توأمان نرم‌افزار و نظارت انساني انجام می‌شود- قياس كرده است.

فیس‌بوک نيز در توضيح اقدامش در تأمین منابع مالي پژوهش پيرامون دست‌کاری رسانه‌ای كه در برخي دانشگاه‌ها انجام می‌شود، به نشريه پست گفت كه مبارزه با اطلاعات نادرست غيرعمدي[65]از مهم‌ترین كارهايي است كه اين شركت در حال انجام آن است. البته فيس‌بوك پس‌ازاین كه در مي 2019 از حذف ويدئوي تحریف‌شده پلوسي از پلتفرم خود امتناع كرد، يك ماه بعد يعني در ژوئن همان سال با ویدئوي ديپ ‌فيك مارک زاکربرگ روبه‌رو شد که در اینستاگرام منتشر شد. فیلمی جعلی بر اساس سخنراني سال 2017 زاكربرگ، كه او را در حالي رو به دوربین نشان می‌دهد كه اظهار می‌کند کنترل کامل اطلاعات به سرقت رفته میلیاردها انسان، زندگي، اسرار و آینده آن‌ها را در اختيار دارد. در ادامه اين مساعي جهت مبارزه با اطلاعات نادرست، شركت رسانه‌ای مذكور در اكتبر 2019 برنامه‌های خود را براي انتخابات 2020 آمريكا اعلام كرد كه جلوگيري از گسترش اطلاعات نادرست و سرمایه‌گذاری در پروژه‌های مربوط به سواد رسانه‌ای بخشي از آن محسوب مي‌شوند. فیس‌بوک در توضيح اين برنامه بيان كرده كه تلاش هم‌زمان خود را در جهت كاستن اطلاعات نادرست در فیس‌بوک و اينستاگرام به كار بسته و به‌طور مثال از گسترش اطلاعات مذكور در دو شبكه مزبور جهت ممانعت از پربيننده شدن آن اقدام می‌کند. طي اين برنامه اطلاعات نادرست را در اينستاگرام از جست‌وجو و هشتگ‌ها حذف كرده انتشار آن را در خبرخوان فیس‌بوک كاهش می‌دهد؛ مضاف این‌که اگر صفحه‌ها، دامنه‌ها و گروه‌ها نسبت به تكرار اطلاعات نادرست اقدام كنند، ضمن ممانعت از اشاعه كلي محتوايشان در فيس‌بوك، در تبليغات و كسب درآمدشان محدوديت ايجاد می‌کند. اين شركت رسانه‌ای مدعي شد طي نوامبر 2019 يك گروه مستقل راستي آزما، نسبت به زدن برچسب‌ به تمامي مطالب بارگذاري شده در فیس‌بوک و اينستاگرام اقدام می‌کنند تا كاربران نسبت به این‌که كدامين مطلب را خوانده، به اشتراك نهاده و در مجموع بدان اعتماد كنند؛ تصميماتي بهتر اتخاذ كنند.[66]

توییتر اعلام كرد درعین‌حال كه هر هفته با موضوع بيش از هشت ميليون حساب كاربري كه در تلاش‌اند ضمن دست‌کاری محتوا به انتشار آن بپردازند، درگير است؛ ولي با این‌ حال راستي آزمايي هر توييت را نيز امکان‌پذیر نمی‌داند. اين شركت می‌افزاید بر اين باور نيست كه بخواهد پيش از انتشار توييت در فضاي آنلاين پيرامون چيستي و صحت محتواي آن تصمیم‌گیری و مداخله کند.

اين شركت اظهار می‌کند آشكار شدن توييت‌ دروغ در كسري از ثانيه اتفاق می‌افتد چراکه ديگر كاربران، بلادرنگ به بررسي توييت‌ها مبادرت می‌کنند. توييتر مدعي است محتواهاي نادرست تا هنگامی‌که كذب بودنشان اثبات شود به ميزاني ناچيز در توييتر بازنشر می‌شوند. لازم به ذكر است كه اين شركت هیچ‌گونه آمار و ارقامي براي اثبات ادعاهايش ارائه نكرده است.

به گفته محققان در رابطه با داستان‌سرایی‌های تصويريِ نوين، مشكل فراگير نه پيچيدگي فیلم‌های جعلي بلكه سوء تفسیر فیلم‌های واقعي است. به‌طور مثال تصويري از يك راهپيمايي اعتراضي واقعي يا زدوخورد شديد كه در شرح آن، مكان رخداد در جايي غير از مكاني كه اتفاق در آن رخ‌داده، ذكر می‌شود.

با توجه به در پيش بودن انتخابات 2020 آمريكا ضرورتِ وجود سامانه‌های تشخيص ديپ فيك بیشتر احساس شده اما شرکت‌های بزرگ آمريكايي همچنان به صيانت از انتخابات در چارچوب تخلفات سايبري تمايلي فزاينده دارند. شامير عليبحي[67]كه مؤسس استارت آپ آمبر[68]در حوزه تشخيص جعليات است می‌گوید كه شركتش با همكاري بخشي از مشتريانش در حال آزمايش يك پوشش محافظ در برابر ديپ فيك با استفاده از فناوري بلاكچين براي احراز هويت و روشي جديد در تفكيك قطعات فيلم همچنین پردازش سيگنال، همراه با تحليل کلیدواژه‌های محتواي صوتي و تصويري است.

پژوهشگران گفته‌اند در جهاني كه فيلم نقشي اساسي در شکل‌دهی به تاريخ مدرن را ايفا كرده، يافتن روش‌هایی قطعي براي كشف جعليات حائز اهميت است و اين در حالي است كه عده‌ای از به خطر افتادن اعتبار فيلم بیمناک‌اند.

ممن دراین‌باره می‌گوید فرجام ديپ فيك به حقیقت ناباوری می‌انجامد و می‌افزاید اين در حالي است كه تصوير مردي كه در ميدان تيان آن من برابر تانك ايستاد جهان را تكان داد؛ صداي نيكسون از طريق تلفن براي ادامه دوران رياست جمهوري وي هزینه‌ساز شد و تصاوير دهشتناك منتشرشده از اردوگاه‌های كار اجباري نازي، همگان را به اقدامي عملي واداشت. وي تصريح می‌کند اگر باور افراد به آنچه می‌بینند مورد هجمه واقع شود، نشانه‌ای نگران‌کننده از مشكلي بسيار بزرگ است. وي تصريح می‌کند كه افراد دگر بار بايد نور حقيقت را از پس ابرهاي سياه ديپ فيك ببينند.

* اين نوشتار ترجمه‌ای آزاد از مقاله‌ای است با نام

Top AI researchers race to detect ‘deepfake’ videos: We are outgunned

كه توسط Drew Harwell در ژوئن 2019 به رشته تحرير درآمده.

[1] Artificial Intelligence به سامانه‌هایی گفته می‌شود که واكنش‌هايي مشابه رفتارهای هوشمند انسانی ازجمله درک شرایط پیچیده، شبیه‌سازی فرایندهای تفکری و شیوه‌های استدلالی انسانی و پاسخ موفق به آن‌ها، یادگیری و توانایی کسب دانش و استدلال برای حل مسائل دارند.

[2] Deepfake كه با معادل‌هايي چون جعل عميق، جعل عمقي، جعل ژرف و يادگيري عميق جعل كردن از آن ياد می‌شود.

[3] Disinformation به اطلاعات نادرست عامدانه و نشر هدفمند و گسترده آن گفته می‌شود که به‌طورمعمول خاستگاهی حاکمیتی دارد. در چارچوب اطلاعات نادرست عامدانه كه اغلب همسنگ اخبار جعلي فرض می‌شود، مخاطب بر بستر اين اطلاعات زيسته، طي فرايندي مطول فریفته شده؛ آنگاه پيرامون امري به باوري كذب می‌رسد. (فلسفي، 1398: 82)

[4] Fake News عبارت است از توليد و نشر عامدانه اطلاعات نادرست و گمراه‌كننده و/يا شايعه به منظور جهت دادن به افکار عمومی براي كسب‌ منافعي خاص.

[5] Elyse Samuels

[6] www.youtube.com/watch?v=TgcvQA6-qBg

[7] Scarlett Johansson

[8] Hany Farid

[9] www.latimes.com/business/technology/la-fi-tn-fake-videos-20180219-story.html

[10] Nancy Patricia D'Alesandro Pelosi

[11] http://yon.ir/dwcCO

[12] Ali Bongo Ondimba

[13] Malaymail

[14] www.malaymail.com/news/malaysia/2019/06/12/the-real-haziq-not-as-built-santubong-pkr-chief-says-of-man-in-gay-sex-clip/1761392

[15] www.reddit.com

[16] Deep learning زیرشاخه‌ای از یادگیری ماشین که از مجموعه‌ای از الگوریتم‌ها براي پردازش سیگنال‌های حسی مانند صدا و تصویر استفاده می‌کند.

[17] Capitol Hill مقر حکومتي ایالات‌متحده در شهر واشنگتن دي. سي. كه ساختمان‌هاي سنا، مجلس نمایندگان و دیوان عدالت عالی در آن واقع است.

[18] Adam B. Schiff

[19] Rachel Thomas

[20] www.fast.ai

[21] http://aviv.me

[22] Pew Research Center

[23] Robert M. Chesney

[24] Danielle Citron

[25] www.poynter.org/ethics-trust/2019/the-liars-dividend-is-dangerous-for-journalists-heres-how-to-fight-it

[26] www.cjr.org/politics/trump-coverage-inauguration-press-media.php

[27] اندیشه‌ای بنيادي براي تجلي آزادي بيان و داراي منطقي شبيه به اقتصاد بازار آزاد است؛ بدين معني كه حقيقت در فضايي مملو از رقابت ميان ایده‌های گوناگون و گفتمان عمومي شفاف ظاهر می‌شود.

[28] Skolkovo

[29] Few Shot

[30] Ohad Fried

[31] De-Identification

[32] https://venturebeat.com/2019/10/25/facebook-alters-video-to-make-people-invisible-to-facial-recognition

[33] https://b2n.ir/14403

[34] Generative Pretrained Transformer-2 (GPT-2)

[35] https://openai.com

[36] www.zoomit.ir/2019/5/28/336405/gpt2-language-model

[37] Generative Adversarial Network (GAN)

[38] www.theverge.com/2019/2/14/18224704/ai-machine-learning-language-models-read-write-openai-gpt2

[39] GPT

[40] https://openai.com/blog/better-language-models

[41] https://arxiv.org/pdf/1906.01946.pdf

[42] https://allenai.org

[43] Grover

[44] Nitesh Saxena

[45] MelNet

[46] Jane Morris Goodall

[47] https://arxiv.org/pdf/1906.01083.pdf

[48] www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402

[49] Nasir Memon

[50] Defense Advanced Research Projects Agency (DARPA)

[51] MediFor

[52] Matt Turek

[53] Computer Vision يا بينايي رايانه، شامل روش‌های مربوط به پردازش، تجزیه‌ و تحلیل و درک محتوای تصاویر يا فیلم‌های ديجيتال است.

[54] Synthetic Media رسانه‌هایی ديجيتال يا در نگاهي کلان‌تر رسانه‌هایی تغییریافته‌اند كه اغلب توسط الگوریتم‌ها هدايت می‌شوند. برخي صاحب‌نظران ديپ فيك‌ها را ذيل رسانه‌های تركيبي تعريف می‌کنند.

[55] Elizabeth Warren

[56] https://news.berkeley.edu/2019/06/18/researchers-use-facial-quirks-to-unmask-deepfakes

[57] Puppet Master Fakes

[58]http://openaccess.thecvf.com/content_CVPRW_2019/papers/Media%20Forensics/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf

[59] Sam Gregory

[60] Witness

[61] Siwei Lyu

[62] https://hackernoon.com/detecting-fake-video-needs-to-start-with-video-authentication-224a988996ce

[63] Nick Clegg

[64] http://yon.ir/KguFO

[65] Misinformation اطلاعاتی نادرست بدون تعمد در گمراه‌سازی مخاطب است که رشد آن به واسطه توسعه بنیان‌های فناورانه در حوزه تبادل اطلاعات به ویژه در فضای آنلاين فزوني يافته است. توليد و نشر این اطلاعات به‌طورمعمول از سوي خبرنگاران و سازمان‌های خبري كه صادقانه به حرفه خود پايبندند اما به دلايلي چون خطاي انساني يا سوء عملکرد سازماني ناخواسته به ورطه توليد و نشر اطلاعات ناراست فرو می‌غلتند، انجام می‌پذيرد. البته فارغ از خبرنگاران و سازمان‌های خبري، برخي مخاطبان نيز اين اطلاعات را به اشتراک می‌نهند كه به زعم خود اطلاعاتي موثق را با ديگران سهيم مي‌شوند. (فلسفي، 1398: 81)

[66] https://newsroom.fb.com/news/2019/10/update-on-election-integrity-efforts

[67] Shamir Allibhai

[68] https://ambervideo.co

ديگر منابع

- سلطانی فر، محمد.، سليمي، مريم.، و فلسفي، سيد غلامرضا. (1396، پاييز). اخبار جعلي و مهارت‌هاي مقابله با آن. فصل‌نامه رسانه. دوره 28، شماره سه، شماره پیاپی 108، صفحه 43-69.

http://qjmn.farhang.gov.ir/article_51733.html

- فلسفي، سيد غلامرضا. (1398، خرداد و تير). جهان در خطر بازگشت به عصر تاريكي. مجله بازخورد. سال دوم، شماره هشتم، صفحه 79-89.

magiran.com/p1998506

ديپ فيكهوش مصنوعياخبار جعليرسانه هاي اجتماعيفيك نيوز
پژوهشگر
شاید از این پست‌ها خوشتان بیاید