انديشمندان حوزه هوش مصنوعي[1]درعینحال كه جهت نابودي يك سلاح بسيار خطرناك سياسي كه عبارت است از فیلمهای جعليِ تولیدشده توسط رايانه كه بیشترین تأثیر را در تضعيف جايگاه نامزدهاي انتخاباتي و گمراهسازی رأیدهندگان در انتخابات رياست جمهوري 2020 آمريكا دارد، با يكديگر در رقابتاند؛ همصدا با هم پيامي مشترك را صلا میدهند: «جهان براي مواجهه با ديپ فيك[2]آماده نيست».
اين پژوهشگران با مدنظر قرار دادن ملاكهای كشف فیلمهاي جعلي، سامانههایی خودكار طراحي کردهاند كه فیلمها را تجزیه و تحلیل کنند كه برخي از اين ملاكها عبارتاند از: ارزيابي نور، سایهها، الگوهاي پلك زدن و چگونگي حركات سر و ابعاد واقعي چهره مانند نسبت زواياي سر و اجزاي صورت به يكديگر يا نحوه تكان دادن سر و لبخند زدن. ليك به رغم تمام اين پیشرفتها، محققان بر اين باورند كه گستردگي و تأثیرات عميق اين روش جاعلانه بر افكار عمومي بسي شديد و ماندگارتر از آن چيزي است كه تصور میشد لذا بر همين اساس نسبت به آغاز موج جديد كارزارهای اطلاعات نادرست عمدي[3] در ايام انتخابات 2020 زنهار دادهاند؛ روندي ناميمون كه تأثیر اخبار جعلي[4]بر افكار عمومي و نقش گروههای فريبكار فعال در فیسبوک را در تغيير نتيجه انتخابات رياست جمهوري 2016 آمريكا يادآور میشود. الیس ساموئلز[5]روزنامهنگار و سردبير بخش راستي آزمايي فیلمهای آنلاين در روزنامه واشنگتنپست دراینباره ميگويد ديپ فيك این ایده را كه باورپذیری منوط به ديدن است، نقض كرده و اين مهم در آينده مبارزات سیاسی و نتايج حاصل از آن بسيار تعیینکننده است.
در اين ميان هوش مصنوعي در مقام ابزاري پرقدرت در هر چه باورپذيرتر شدن ديپ فيكها و اقناع مخاطبان به نحوي مؤثر نقشآفرینی ميكند چنانکه بستر و امكان ساخت فیلمهای ديپ فيك تسهيل شده و در دسترس بسياري قرارگرفته است. ماهيت اين روش، امكان ساخت فيلم پيرامون كسي است كه هیچگونه آشنايي و ديداري با سازنده فيلم نداشته يا نسبت دادن گفتار يا كردار به شخصي است كه آن گفتار يا رفتار در شرايط واقع هیچگاه از وي سر نزده است. اين محتواهاي جعلي از طنز سرگرمکننده و جلوههای ويژه سينمايي مانند آنچه در فيلم شواليه تاريكي[6]ديده میشود تا فیلمهای غیراخلاقی جهت آزارِ هدفمند زنان عادي همچنين سرشناس مانند اسكارلت جوهانسون[7]كه قربانيان بالقوه اين فناوري محسوب میشوند؛ را شامل میشود.
صاحبان نظر بيمناكاند در آستانه ايام رأیگیری رياست جمهوري 2020 و داغتر شدن تنور رقابتهاي انتخاباتي از ديپ فيك در مقام عاملي كارا جهت اغفال رأیدهندگان و كاشت بذر ترديد در باور آنان و تخريب حريف، بیشازپیش استفاده شود. بر همين اساس فرماندار ايالت كاليفرنيا در اكتبر 2019 قانوني را تصويب كرد كه به موجب آن توليد و نشر ديپ فيك جهت تخريب سياستمداران طي 60 روز به انتخابات، عملي مجرمانه محسوب شود.
هاني فريد[8]كارشناس حوزه قوانين ديجيتال در دانشگاه بركلي كاليفرنيا با توجه به آمارهایی چون نسبت كمّيِ توليدكنندگان به تحلیلکنندگان ديپ فيك که به تعبير وي صد به يك است؛ پيرامون امكان غلبه بر اين فناوري اظهار ترديد ميكند. اين استاد علوم رايانه در دانشكده دارتموث كه قريب به دو دهه در حوزه تشخيص فیلمهای دستکاریشده فعاليت دارد، میگوید كه با ريزبيني در مواردي چون پیکسلهای تصوير و سعي در يافتن ايرادات جزئيِ آن يا موشكافي در روند گردش خون در صورت شخصیتها، گاه میتوان به واقعي يا جعلي بودن فيلم واقف شد. به رغم اين موارد فريد معتقد است هوش مصنوعي در كمترين زمان متصور، مرز اين علائم و نشانهها را نيز درمینوردد و روند شناسايي ديپ فيكها همچون رابطه موش و گربه در كارتون تام و جري بين الگوریتمهای هوش مصنوعي و خبرگان تشخيص فیلمهای جعلي به تسلسلي نافرجام دچار ميشود.[9]
گرچه در ایالاتمتحده، ديپ فيكها تبعات گسترده سياسي در پي داشتهاند اما رسواییهاي سياسيِ فيلم محور لزوماً به ديپ فيك محدود نيست بلكه گاه دستکاریهای ساده در فیلم نيز در سپهر سياسي غائله برپا میکند كه شاهد مثال آن ويديوي پربيننده نانسي پلوسي[10]رئيس مجلس نمايندگان آمريكا و رهبر حزب دموكرات اين مجلس در مي 2019 است. بيش از سه ميليون بازديدكننده، در اين فيلم پلوسي را در حالي دیدند كه دچار مشكل تكلم و عدم تعادل است. فيلم مذكور اين گمان را در بينندگان ايجاد کرد كه اين عضو ارشد حزب دموكرات دارای مشکلات ذهنی بوده و از سلامت جسمی برخوردار نیست. مضاف آنكه جمهوري خواهان در آن هنگام مدعی شدند مشكل تكلم پلوسی ناشي از اعتياد وي به مسكرات است که پس از چندي مشخص شد اين ویدئو با سرعتي ۲۵ درصد کمتر از حالت عادی بازتدوین و در نتيجه دستکاریشده بود.[11]
ايجاد بحران به يمن ديپ فيك فرامرزي بوده به جغرافياي آمريكا يا اروپا محدود نيست. بهطور مثال در اواخر سال 2018 در آفريقاي مركزي، ويدئويي از علی بونگو اوندیمبا[12]رئیسجمهوری گابن توسط يك شبكه خصوصي تلويزيوني كامروني پخش شد كه وضعيت وخيم جسماني وي در عربستان را نشان میداد تا جايي كه گمانها پيرامون مرگ بونگو در عربستان تقويت شد. اين گمانهزنیها، انتقادهاي شديد مخالفان سياسي رئیسجمهوری گابن را به استناد ويدئوي جعلي پخششده مبني بر ناتواني وي در اداره امور كشور در پي داشت تا جايي كه به بهانهای براي كودتاي نافرجام ارتش اين كشور در ژانويه 2019 بدل شد.
اين بار به التهاب آفريني در آسيا به واسطه ديپ فيك نظر ميافكنيم. در ژوئن 2019 برخي اصحاب رسانه و اعضاي احزاب سياسي مالزي كه در گروهي واتس آپي عضو بودند، از تماشاي فيلمِ كوتاه بارگذاري شدهای در اين سايت شبكه اجتماعي كه رابطه غيراخلاقي دو مرد را نشان میداد غافلگير شدند. آنچه اين غافلگيري و در تعاقب آن پربیننده شدن فيلم مذكور را در سريعترين زمان ممكن رقم زد، شباهت فراوان يكي از آن دو شخص به يك وزير كابينه محلي بود. ساعاتي پس از انتشار اين ويدئو كه در سپهر سياسي مالزي از آن با عنوان فاجعه ياد شد؛ ويدئوي كوتاهي ديگر در فیسبوک منتشر و در آن، فرد ديگر حاضر در فيلم مزبور مدعي شد كه تصاوير بدون رضايت وي توسط آن چهره سياسي ضبط و پخششده است لذا از گروه مبارزه با فساد در مالزي درخواست كرد صلاحيت سياستمدار برجسته وابسته به حزب حاكم را بررسي كند. تحقيقات روزنامه مالايميل[13]در كوالالامپور به استناد اظهارات مقامات محلي حاكي از آن بود كه ظاهرِ اندام و نشانههای جسميِ وزيرِ در مظان اتهام، با آنچه در فيلمِ منسوب به او ديده میشد مطابقت نداشته؛ لذا انگشت اتهامِ توليد اين فيلم جعلي به سمت رقباي سياسي حزب حاكم نشانه رفت.[14]
ديپ فيك كه نخستين بار طي سال 2017 در يك پستِ تارنماي رِديت[15]از آن نامبرده شده و در توليدش از فنِ هوش مصنوعيِ ديپ لرنينگ[16]استفاده میشود؛ در آمريكا به يك اهرم فشار عليه سياسيون از جمله ساكنان منطقه كپيتال هيل[17] بدل شده است تا جايي كه قانونگذاران رجا واثق یافتند كه ديپ فيك ضمن زير سؤال بردن اعتبارشان، مخل سلامت انتخابات و در ابعادي وسيعتر چالشي جدي براي امنيت ملي و حاكميت مردمسالارانه محسوب میشود. با عنايت به اين مهم كميته اطلاعات مجلس نمايندگان طي ژوئن 2019 جهت استماع نظر متخصصان هوش مصنوعي جلسهای تشكيل و پيرامون اینکه ديپ فيك با سلب مشروعيت از رِسانه، چگونه موجب انكار رسانه از سوي مخاطب شده، امكان تشخيص صحيح را از وي میگيرد و با اين شرايط، مخاطب چگونه میتواند از تأثیر روانشناختیِ ماندگارِ ديپ فيك و هوش مصنوعي بر هوش و شخصيت خود رهايي يابد؛ اظهاراتي مطرح شد.
آدام شیف[18]نماینده دموكرات حوزه انتخابیه کالیفرنیا و رئیس کمیته اطلاعات مجلس نمایندگان پيرامون ميزان آمادگي نظام سياسي آمريكا در برابر ديپ فيك اظهار ترديد كرده افزود كه گمان نمیكند مردم از آنچه انتظارشان را میکشد آگاه باشند.
راشل توماس[19]بنیانگذار يك آزمايشگاه يادگيري ماشين[20]در سانفرانسيسكو ميگويد يك كارزار اطلاعات نادرست عمدي با استفاده از فیلمهای ديپ فيك بر بستر پلتفرم وب مدرن با توجه به ساختار اين پلتفرم انبوهي از مخاطبان را جذب كرده؛ بيشتر و سریعتر از حقيقت اشاعه مییابد. توماس معتقد است محتواي جعلي بهطور تضمینشده بر افكار عمومي مؤثر نيست چراکه انسانها در مقام موجوداتي اجتماعي اموري را باور میکنند كه كثيري از همنوعانشان به آن مؤمن باشند لذا آناني كه در پي تأثیرگذاری بر افكار عمومي از طریق توليد و نشر مجعولات هستند، كاري ساده در پيش ندارند.
در این بین نبود قوانين مصرحِ ناظر بر ديپ فيك موضوعي قابل تأمل است. البته برخي كارشناسان حقوقي و فني معتقدند قوانين مصوب كه بر اعمالي مجرمانه چون افترا، سرقت هويت يا جعل عناوين دولتي جاري است؛ بر اين مهم نيز دلالت میکند. با این حال به نظر میرسد گسترده شدن وضع قوانين نيز نگرانيهايي در پي دارد چراكه ديپ فيك بر مرز باريك ميان توليد محتواي طنز كه متمم اول قانون اساسي ایالاتمتحده از آن حمايت میکند و تبليغات سياسي مخرب در حركت است؛ مرزي كه ممكن است وجوه تمايز آن همواره واضح نباشد.
برخي نگراناند امكان تخدير يا هيجانات ناشي از تماشاي فیلمهای جعلي، موجب شود مردم به استنادات و شواهد جعليِ تبهكاران ايمان بياورند. محققان اين مشكل را بیتفاوتی نسبت به امر واقع نامیدهاند[21]؛ بدين معني كه فرد براي فهم آنچه واقعيت دارد و آنچه واقعيت ندارد، بسيار تلاش میکند ليكن در نهايت آنچه را كه با وابستگیهای پيشينش پيوند دارد، میپذیرد.
نتايج مركز تحقيقات پيو[22]كه در ژوئن 2019 منتشر شد مؤید اين امر است، چراکه در آن تحقيق حدود دوسوم از پرسش شوندگان آمریکایی اظهار نمودند فیلمها و تصاوير جرح و تعدیلشده به مشكلي اساسي در تشخيص امر واقع در زندگی روزمرهشان تبدیلشده است. بيش از یکسوم از پرسش شوندگان نيز معتقد بودند اخبار ساختگي، موجبات بیاعتمادی و كاهش كلي ميزان دريافت اخبار توسط آنان را رقم زده است.
اين نگراني كه ديپ فيكها مردم را در پذيرش فيلمهاي واقعي دچار ترديد و انكار كند؛ پدیدهای است كه رابرت چسني[23]و دنيل سترون[24]استادان حقوق، آن را سود حاصل از دروغ نام نهادند؛ به اين معني كه قبح زدايي از جعليات و دستکاری محتوا سبب شود حتي پس از افشاي دروغ، اعتماد به هرگونه اطلاعات پيرامون آن موضوع خاص براي افكار عمومي دشوار شود؛[25]مانند دونالد ترامپ كه مدعي شد ویدئوی مربوط به سال ۲۰۰۵ وي، وقتیکه به برنامه تلويزيوني اكسس هاليوود ميرفته و در مسير با بیلی بوش مجري وقت برنامه، پيرامون تلاشهایش برای تعرض به زنان و اغواي زنی متأهل صحبت كرده و آن صحبت به سبب باز بودن میکروفن ضبطشده بود، جعلي است؛ تا اینکه واشنگتنپست مستنداتي فني از جمله صداي وي را جهت اثبات اصالت محتوا در اكتبر 2016 منتشر و ترامپ را بابت اظهاراتش به عذرخواهي علني واداشت. در اين مورد و ديگر موارد مشابه طي مبارزات انتخاباتي سال 2016 و پسازآن، به رغم پوشش گسترده رسانهها نهتنها افكار عمومي در پذيرش واقعيت در موضع ترديد قرار گرفت بلكه به ترامپ اين امكان را داد تا بیشتر توجهات را به خود جلب كند.[26]
اعضاي دو حزب دموكرات و جمهوریخواه همچنين مقامات برگزاركننده مبارزات انتخابات 2020 ادعا ميكنند جهت مقابله با آسیبهاي ناشي از ديپ فيك به آمادگي اندك نياز است تا سايت شبکههاي اجتماعي و تارنماهاي پخش فیلمهای ويدئويي، به شناسايي و حذف جعليات اقدام كنند؛ غافل از اینکه شرکتهای فناوري سیاستهایی گوناگون در حوزه حذف فیلمهای جعلي دارند و بيشتر آنان خود را به بارگذاري شدن فیلمهای واقعي در پلتفرمشان ملزم نمیدانند.
باراك اوباما در مي 2019 طي يك سخنراني در كانادا اظهار داشت كه مردم میتوانند نحوه صحبت كردنش را پيرامون بيان هر چيز شبیهسازی كنند. وي در ادامه ضمن رد مطالبي كه پيرامون نقش بازار ايدهها[27]در مصائب ناشي از ديپ فيك مطرح میشود، تصريح كرد: بازار ایدهها شالوده عملكرد مردمسالارانه ماست و اگر معياری مشترك مبني بر اینکه چه چيزي درست و چه چيزي نادرست است، وجود ندارد؛ ايرادي است كه به ما برمیگردد نه به ماهيت اين بازار.
فناوري ديپ فيك به سرعت در حال پيشرفت است كما اینکه طي مي 2019 پژوهشگران هوش مصنوعي در موسسه علم و فناوري اسكولكوو[28]در مسكو از سامانه عكس معدود[29]رونمايي كردند كه میتواند با تعدادي محدود تصویر چهره، تصاویر متعددِ متقاعدكننده جعلي از آن چهره توليد و سپس آن تصاوير را به فیلم تبدیل كند. ايگور زاخاروف پژوهشگر ارشد اين گروه تحقيقاتي با عنايت به بازنگري مداوم همكارانش در فناوري موردبحث، از هرگونه اظهارنظر شخصي پيرامون اين موضوع استنكاف میورزد اما در فرازي از مقاله منتشره از سوي گروه تحقيقاتي مذكور آمده كه دستاورد حاصل از اثر شبکهایِ توليد فناوریهای جلوههای ويژه ويدئويي، فراتر از حد انتظار بوده و همچنين تأکید شده كه این فناوري نوين با فناوري آواتار عصبي همخوان است.
گروهي از محققان هوش مصنوعي نيز در موسسه فناوري اطلاعات ماكس پلانك و دانشگاههایی چون استنفورد و پرینستون سامانهای اختصاصي طراحي کردهاند كه میتواند گفتههای فرد در فيلم را تغيير دهد. اين سامانه از راه تغيير برخي متنها، هجاها و حركات دهان شخص، توسط هوش مصنوعي عمل ميكند كه در نهايت به تغييري يكنواخت در شيوه صحبت كردن موسوم به صحبت با سر منتهي میشود.
اوهاد فريد[30]پژوهشگر ارشد دانشگاه استنفورد میگوید كه فناوري مذكور میتواند در خدمت توليد فيلم با هزينه نازل همچنين برگردان فیلمهای بومي به زبانهای بینالمللی جهت استفاده مخاطبان مختلف مورد بهرهمندی قرار گيرد. وي میافزاید كه امكان سوءاستفاده هم از اين فناوري وجود دارد چراكه به اين واسطه میتوان به تحريف فیلمهای ويدئويي اقدام كرد يا به افراد صاحبنام افترا بست. فريد ضمن تأکید بر اینکه فیلمهایی كه با چنين ابزاري ساخته میشوند، بايد با عنوان تركيبي معرفي شوند؛ خواستار آن شد كه رگولاتورها، شرکتهای فعال در حوزه فناوري و روزنامهنگاران در افشاي جعليات نقشي فعالتر ايفا كنند. پژوهشگر ارشد دانشگاه استنفورد میگوید در مجموع مردم نياز به فهم اين مهم دارند که فيلم ممكن است روايتي دقيق از آنچه اتفاق افتاده نباشد.
در همين حال محققان هوش مصنوعی فیسبوک برای مبارزه با دیپ فیک و مخفی نگهداشتن هویت افراد، یک سامانه یادگیری ماشین را چنان توسعه دادهاند که میتواند هویت افراد را در ویدیوها (از جمله ویدیوهای زنده) بلادرنگ مخفی كند. در این سامانه، یک رمزگذار خودكار در همکاری با سامانهای که چهرهها را طبقهبندی میکند، صورت فرد را در عین حفظ کردن حالت طبیعی، به نحوی تغییر میدهد که سامانههای تشخیص چهره از شناسایی آن ناتوان میمانند و فقط انسانها قادر به تشخیص هویت واقعی فردند. محققان فیسبوک در مقالهای که در مورد سامانه مخفی کننده هویت خود نوشتهاند، با اشاره به از بین رفتن حریم شخصی در اثر استفاده از سامانههای تشخیص چهره و اثراتي زیانبار که فناوری جابهجایی چهره در پی دارد، میگویند با توجه به اتفاقات اخیر در حوزه ديپ فيك که نگرانیهایی را در مورد پیشرفت فناوري تشخیص چهره و سوءاستفاده از آن به وجود آورده، نیاز به درک روشهایی که بهطور موفقیتآمیز عمل ضد شناسايي[31] را انجام میدهند؛ حس میشد. سامانه موردبحث روی جنیفر لارنس آزمایش شد و درعینحال كه در چهره این هنرپيشه تغییراتي اندک انجام گرفت ولی هویت او همچنان توسط انسان قابلتشخیص است. محققان هوش مصنوعی فیسبوک یکی از نقاط قوت این سامانه را عدم نیاز به آموزش آن برای هر ویدیو یا فرد میدانند و اینکه فقط اندكی در زمان ویدیو تغییر ایجاد میکند. با وجود آزمایش موفقیتآمیز این سامانه آنها معتقدند هنوز مدت زمانی زیاد تا تجربه آن در فیسبوک فاصلهدارند. سخنگوی فیسبوک به تارنماي VentureBeat[32] گفته كه این شرکت برنامهای برای بهکارگیری این تحقیق در محصولات خود ندارد. با این حال از این سامانه میتوان برای مبارزه با سامانههای تشخیص چهره شرکتهای ثالث که فعالیتهای کاربران را تحت نظر میگیرند، استفاده کرد و اثرات ویدیوهای دیپ فیک را خنثی نمود.[33]
ويدئوهاي ديپ فيك نمونهای از انقلابي است كه هوش مصنوعي در عرصه اطلاعات نادرست عمدي ايجاد كرده؛ كما اینکه سامانههاي جديد هوش مصنوعي زباني مانند نسخه دومِ مبدلِ پيش آموزش دادهشده مولد[34]كه توسط آزمايشگاه تحقيقاتي اُپن اي آی[35] طراحیشده، متون نوشتاري توليد میکنند. این الگوریتم مدلسازی زبان از ویژگی مولد بودن برخوردار است؛ درحالیکه این ویژگی منحصر به زبان انسان است. مولد بودن زبان به معنای توانایی تولید صورتهای جدید زبانی بر اساس قواعد موجود در زبان است که یکی از ویژگیهای مهم آن به شمار میرود.[36]در توليد ويدئوهاي ديپ فيك تصاوير هدف به سامانه معرفی میشوند و سامانه بر اساس بانک دادهای از تصاوير و صداهای موجودِ پیشین و کمک روشهایي نظیر شبکه مولد متخاصم[37] كه شاخهای مهم از يادگيري ژرف است؛ تصاوير هدف را بر مبنای تصاوير موجود ساخته و درنهایت شخصیتی ديده میشد که در حال انجام کار یا ايراد سخن است درحالیکه روح شخص واقعي از آن بیخبر است. (فلسفي، 1398: 82 و 83) در توليد نوشتار نيز با استفاده از آن دسته متون نوشتاري كه در قالب دادههاي خام اوليه به سامانه وارد میشود، بندهایی زياد در ادامه متن ورودي با همان لحن، مضمون و سبك نگارش توليد میشود. اگر به سامانه تيتر جعلي بدهيد، بقيه مطلب را با نقلقولها و نمودارهاي جعلي توليد میکند يا میتواند با در اختيار داشتن خط اول يك داستان كوتاه، شخصیتپردازی كرده و به فوریت داستان كوتاهي پرطرفدار بنویسد.[38]به رغم اینکه ممكن است متن به سمت مغلقگویی گرايش يابد، ليك اين امكان، مستمسكي ارزشمند براي رباتهای هرزه نگار و سازندگان اخبار جعلي محسوب ميشود. نسخه دومِ مبدلِ پيش آموزش دادهشده مولد، يك مدلساز زبان طبيعي با 5/1 ميليارد مؤلفه در مجموعهای مركب از 8 ميليون صفحه وب بوده و هدف از طراحي آن، پیشبینی درونمتنی واژه پسين بر اساس واژگان پيشين است. سامانه مذكور نسخهاي ارتقا يافته است كه نسبت به نمونه پيشين[39] در حوزه مؤلفه و مقدار داده، 10 برابر ارتقا يافته و به شكلي طراحیشده كه به سهولت میتواند واژه پسين درونمتنی را در چارچوب بانك داده متنيِ اينترنتي كه معادل 40 گيگابايت برآورد ميشود؛ گمانهزنی و توليد كند.[40]
لازم به ذكر است كه اين روش بر روي متن سخنرانی رهبران سياسي جهان در مجمع عمومي سازمان ملل متحد بين سالهای 1970 تا 2015 آزمایششده است.[41]در مقابل جهت مواجهه با اين فناوري، پژوهشگران دانشگاه واشنگتن و موسسه هوش مصنوعي آلن[42]يك سامانه كاشفِ متن جعلي به نام گرور[43]را در مي 2019 معرفي کردهاند كه ظرفيت آشكارسازي اخبار جعلي عصبي تولیدشده به وسیله ماشين را دارد.
مضاف بر پژوهش در حوزه ديپ فيكهاي ويدئويي و نوشتاري جعلي، موضوع تشخيص صداهاي جعلي متقاعدکننده نيز در افق فكري كارشناسان اين حوزه قرار دارد. پژوهشگران دانشگاه آلاباما در بيرمنگام كه در حوزه صدا پژوهش میکنند، با استفاده از سه تا پنج دقیقه صدای فرد هدف که زنده ضبطشده یا از یوتیوب يا رادیو بهدستآمده، توانستهاند صدایی جعلی تولید کنند که انسان و سامانههای ایمنی بيومتريك در تشخيص جعلي بودن آن ناتواناند. نيتش ساكسنا[44]استاد و پژوهشگر اين دانشگاه پيرامون ميزان تأثیر اقناع گرايانه اين صداهاي جعلي اظهار میدارد كه با این فناوری میتوان با صدای مادر برای فرزندش با كيفيتي پیام گذاشت كه فرزند نتواند جعلي بودن صدا را تشخيص دهد یا شخصی را با انتشار یک فایل صوتی جعلشده از صداي خودش بدنام کرد. (سلطاني فر، سليمي و فلسفي، 1396: 59)
محققان هوش مصنوعي شركت رسانهای فیسبوک در ادامه مساعيِ پژوهشگران دانشگاه آلاباما توانستهاند با شبیهسازی صداي افراد، گفتاري ماشيني توليد كنند كه بهشدت فريبنده است. جهت انجام اين مهم، سامانه مِل نت[45]بر اساس دادههای ورودي شامل صدها ساعت سخنرانی در همايش تِد و کتابهای صوتي، در چارچوب مدلهای صوتي طراحیشده نسبت به جعل هويت افراد اقدام میکند. بهطور مثال اين سامانه میتواند عبارت «گرفتگي عضلات به هنگام شنا خطري بزرگ است» را با صداي بيل گيتس، جين گودال[46]و بسياري ديگر بسازد. مدل طراحیشده، امكان توليد اصوات جعلي رایانه مبنا را در قالب سخنراني، موسيقي و سنتز متن به گفتار داراست كه فراتر از تصورات، برآوردها و قضاوتهای انجامگرفته در اين زمينه است.[47] از مصاديق ديپ فيكهاي صوتي میتوان به حادثهاي در اوت 2019 اشاره كرد كه طي آن تبهکاران ديجيتالي به كمك ديپ فيك و جعل صدای مدیرعامل یک شرکت بریتانیایی، موفق شدند مبلغ ۲۴3هزار دلار را از شركت مذكور سرقت كنند![48]
از دیرباز در حوزه هوش مصنوعي به نسبت حمایتها و اعتباراتي كه صرف ساخت رسانههای جعلي شده؛ به شناسايي رسانههای جعلي كمتر التفات میشود. سبب اين امر را سهل و ممتنع پنداشتن طراحي راههای شناسايي رسانههای جعلي و اخبار توليدي آنها میپندارند؛ هرچند نصير مِمُن[49]استاد مهندسي و علوم رايانه در دانشگاه نيويورك معتقد است اين رويكرد به سبب عدم امكان درآمدزايي از راه شناسايي رسانههای جعلي بوده، ديگرِ توجيهات نوعي فرار به جلو محسوب میشود.
بخش عمده سرمایهگذاری جهت پژوهش پيرامون يافتن راههای شناسايي ديپ فيكها، توسط دفتر نمايندگي پروژههای پژوهشی پیشرفته دفاعی موسوم به دارپا[50]كه وابسته به وزارت دفاع آمريكاست؛ تأمین میشود. دارپا از سال 2016 حامي مالي برنامه طراحي زيرساختِ تشخيص، تجزیه و تحلیل، تفسير، ارائه شواهد و بازيابي خودكار فیلمها و تصاوير ديجيتال دستکاریشده[51]است كه توسط جمعي از پژوهشگران طراز اول و گروههای تحقيقاتي بسيار معتبر اين حوزه در حال انجام است. مت توريك[52]متخصص بينايي ماشين[53]كه هدايت اين برنامه را بر عهده دارد، میگوید امكاني كه جهت شناسايي رسانههای جعلي و اخبار توليدي آنها با نام رسانههای تركيبي[54]طراحیشده، يك فناوري تدافعي است كه نهتنها عليه دشمنان خارجي بلكه دشمنان سياسي داخلي و اوباش اينترنتي قابل بهکارگیری است.
توريك اظهار میدارد از زمان پيدايش اولين رسانهها تاکنون، حکومتها و دولتها امكان اعمال نفوذ و دستکاری در محتواي رسانه را داشتهاند اما طراحي سامانههای قوي كشف جعليات مانند رسانههای تركيبي سبب میشود گروههای تبهكارِ داراي منابع و امكانات محدود كه در حوزه توليد و نشر اخبار جعلي فعالاند، با انجام محاسبه هزينه – فايده، از ارتكاب اين عمل مجرمانه خودداري كنند.
محققان میگویند براي آشكارسازي راز ديپ فيك، در حال ساخت ابزاري هستند كه در محيطي كه در محافل رمزنگاري، به محيط فاقد اعتماد شهرت دارد؛ كار میکند. محيطي كه در آن يافتن جزئياتي معتبر پيرامون سازنده ويدئو همچنين منشأ و رصد چگونگي نشر آن ناممكن است. در این بین سرعت كاركرد ابزار مذكور حائز اهميت است چراکه هر دقیقهای كه صرف بررسي محتواي منتشرشده در اين فضا شود، ويدئو كليپهاي موردنظر بارها و بارها در وب نشر مییابند.
كارشناسان خبره حوزه شناسايي فیلمهای جعلي تمركز خود را بر طيفي گسترده از شاخصهایی دقيق مانند شكل نور و سايه، زواياي صورت و ميزان وضوح يا محو بودن آنها همچنين ميزان لطافت و سنگيني مو و لباس معطوف نمودهاند. با این وجود در برخي موارد، يك ويرايشگر ماهرِ تصاوير ويدئويي میتواند با كاهش ضريب خطاهاي احتمالي در جعل فيلم، راستي آزمايي را براي كارشناسان دشوارتر كند.
پژوهشگران دانشگاههای كاليفرنيا در بركلي و كاليفرنياي جنوبي با روشي جديد، يك سامانه هوش مصنوعي ساخته و در قالب يك فعاليت كارگاهي، ساعتهایی مديد از فيلم هیلاری کلینتون، باراك اوباما، برنی سندرز، دونالد ترامپ و الیزابت وارن[55]را در اختيار سامانه مذكور قرار دادند تا بر اساس طراحي انجامگرفته، جزئیترین واحدهاي حركت اجزاي صورت شخصیتها را با دقتي بسيار بالا واكاوي كند. طرز كار اين سامانه به نحوي است كه حركات اجزاي صورت را بر مبناي نقاط دادهای، انقباض غيرارادي عضلات چهره، چینخوردگی بيني، افتادگي چانه، فشردگي لبها و در نهايت ساختاربندي كلمات، با دقت موردبررسی قرار میدهد؛ از جمله اینکه چگونه افراد در زمان صحبت، لب بالايي خود را بالابرده يا به هنگام اخم كردن، سرِ خود را تكان میدهند.[56]
جهت آزمودن مدلهای بيومتريكِ نرم، هاني فريد و گروهش طي يك همكاري مشترك با گروهي از طراحان آواتارِ ديجيتال، ضمن بازآفريني چهره خود بر اساس ديپ فيك، به مبادله چهرههای هيلاري كلينتون، ترامپ و وارن با چهره طرفدارانشان به كمك فناوري مذكور در برنامه طنز تلويزيوني با عنوان پخش زنده شنبه شب اقدام كردند. جمعبندی نتايج ارزيابي، بر دقت 92 تا 96 درصدي آن سامانه در شناسايي انواع گوناگون جعليات گواه بود: از تشخيص فيلم طنز جعلي يك فرد عادي گرفته تا مبادله صورت توسط نرمافزارهای موجود در رسانههای اجتماعي، لبخوانی جعلي كه در آن چهره فرد واقعي است اما دهان و حركات لب جهت مطابقت با صداي جديد جايگزين شده و در نهايت قرار گرفتن چهره فرد هدف بر روي بدن يك هنرپيشه[57].
جهت تبيين اين مساعي، نتايج تحقيقي با عنوان صيانت از رهبران جهان در برابر ديپ فيك كه با سرمايهگذاري مايكروسافت، گوگل و دارپا انجامشده؛ در همايش تخصصي سالانه پيرامون بينايي ماشين و تشخيص الگو كه طي ژوئن 2019 با حمايت مالي مشهورترين شرکتهای آمريكايي و چيني فعال در حوزه هوش مصنوعي، در كاليفرنيا برگزار شد؛ در كنار ديگر مقالههای مرتبط ارائهشده است.[58]
سام گريگوري[59]مدير طرح و برنامه سازمان حقوق بشري مردمنهاد ويت نِس[60]كه به آموزش روزنامهنگاران غیرحرفهای جهت تهيه گزارش ويدئويي از موارد نقض حقوق بشر كمك میکنند؛ میگوید كه تمامي پلتفرمهای رسانههاي اجتماعي بايد حول يك سامانه ايمنِ اشتراکگذاری كه جهت كشف و توقف محتواهاي جعليِ پربيننده طراحیشده؛ به اجماع برسند. گريگوري معتقد است بررسي چهره سياستمداران شاخص به روش هاني فريد، جهت صيانت از رهبران عالیرتبه به كار میرود و اين در حالي است كه سیاستمداران محلي، روزنامهنگاران و ديگرِ مردم، هم چنان در برابر ديپ فيك آسیبپذیرند.
هاني فريد انتظار دارد رسانههای گروهي به ابزار كشف ديپ فيك مجهز شوند تا به ارزيابي اخبار تصويري مبادرت ورزند و اين در حالي است كه دسترسي فراگير به اين ابزار، به نوبه خود تهديد نيز محسوب میشود چراكه در اين شرايط، تولیدکنندگان ديپ فيكها امكان آشنايي با رموز اين ابزار را يافته، نسبت به دور زدن راههای تشخيص اقدام میکنند. اين بازي موش و گربه دیر زمانی است محققان حوزه قوانين ديجيتال را نااميد كرده، چراکه اطمينان یافتهاند هر روشي كه به تشخيص ديپ فيكها میانجامد، موقت و داراي تاريخ انقضايي کوتاه مدت است.
شاهد اين مدعا، ثمره همكاري وِيسي لو[61]مدير آزمايشگاه بينايي ماشين دانشگاه ايالتي نيويوركِ شهر آلباني در پژوهشي است كه سال 2018 انجام شد. حاصل تحقيق مذكور به يافتن سرنخي مهم در حوزه ديپ فيك منجر شد كه عبارت بود از عدم پلك زدن شخصیتهايِ فیلمهای جعلي. دوام شهد اين پيروزي تحقيقاتي بسيار كوتاه بود چراكه تنها دو هفته پسازاین كشف، لو رایانامهای از يك سازنده ديپ فيك دريافت كرد كه در آن ذکرشده بود مشكل عدم پلك زدن شخصیتهای ويدئوهاي جعلي را حل كرده است!
اين مدير آزمايشگاه بينايي ماشين معتقد است دستکاری رسانهای به واسطه ديپ فيك كه منجر به تغيير ماهرانه فهم مردم از سياستمداران، رويدادها و ایدهها میشود؛ پيامدهاي روانشناختی گسترده در پي دارد.
لو در ادامه میافزاید: شرايط بهگونهای است كه مخاطبان در عين آگاهي نسبت به جعلي بودن فيلم، همچنان به تماشاي آن مینشینند. لو اين رفتار را توهم زا دانسته میگويد كه چنين رفتاري آسیبهایی بسيار در پي دارد؛ ليكن زدودنش نيز به سختی ميسر است. اين استاد دانشگاه ايالتي نيويورك معتقد است چنين محتواهايي از هرکجا میتواند در اختيار مخاطب قرار گيرد چراكه اينترنت تمامي ديوارهاي بلند حصر ارتباطات را درهمشکسته است.
پژوهشگران بر اين اعتقادند كه فيلمهاي جعلي داراي كيفيت تصويري بالا، با سهولتي بيشتر قابلشناساییاند؛ چراكه امكان مشاهده هر چه بيشتر جزئيات، ضريب تفكيك جعلي از واقعي بودن را به ميزاني فراوان افزايش ميدهد؛ اما قرار گرفتن چنين فيلمهايي بر پلتفرم وب مدرن اين امكان تشخيص را سلب میکند چراكه بيشتر قريب به اتفاق رسانههای اجتماعي و پيام رسانها، جهت سهولت و سرعت هرچه بيشتر به اشتراك گذارده شدن فیلمهای خود، آنها را در قالبهایي فشرده بر اين بستر بارگذاري میکنند؛ كه اين امر موجبات حذف جزئيات فیلمها را كه سرنخهایی مهم جهت كشف ديپ فيك محسوب میشوند؛ فراهم میکند.
موارد مذكور سبب شده برخي افراد، فرجام چالش تشخيص فیلمهای جعلي را ناممكن بپندارند لذا محققان بر آن شدند تا با تمركز بر سامانه اصالت سنجی تلاش كنند صحنهها، درست همانطور كه فیلمبرداری میشود به نمايش درآيد كه از اين روند در اصطلاح با عنوان اثرانگشت ياد میشود.[62]اين امر میتواند به سهولت كشف جعليات كمك كند ليكن تحققش در گرو حصول توافق سازندگان تلفنهای همراه هوشمند، دوربینها و طراحان تارنماهاست؛ يك پيشنهاد با دورنمايي كه تحققش سالها به طول ميانجامد.
در اين رابطه ممن به استناد پانزده سال تجربه كار در حوزه تشخيص فیلمهای جعلي بر اين باور است كه از طريق احراز هويت نمیتوان جهت كشف فيلمهاي جعلي جواب گرفت. او میگوید با توجه به ويدئوهاي بارگذاري شده در فیسبوک و مواردي كه حول واتس آپ مطرح است، درصد موفقيت چنين اقداماتي به اما و اگرها منوط شده و اين در حالي است كه دشمنان واقعيت، توان خود را در توليد جعليات مضاعف نمودهاند.
در همين چارچوب حتي آن دسته كارزارهای سياسي كه دیری است عليه اشتباهات ويدئويي آسیبزننده فعالاند؛ در چگونگي مواجهه با ابزارهاي جديدِ اغفال توده مردم اظهار سردرگمي كردهاند. تني چند از مسئولان اين پویشها اميدوارند كه شرکتهای فناوري، با استفاده از اهرمهاي قانوني با شدتي بيشتر با موارد جعلي برخورد كنند.
يك مقام رسمي كميته ملي حزب دموكرات گفت كه حزبش به برگزاري سلسله كارزارهایی جهت نحوه مبارزه با اطلاعات نادرست عمدي و كاهش فشارها از سوي رسانههای اجتماعي كمك كرده است. به موازات اين اظهارنظر يك مقام رسمي كميته ملي حزب جمهوریخواه نيز گفت ضمن اینکه به اعضاي حزبش پيرامون محتواهاي مشكوك هشدارهاي لازم دادهشده، گروهي از كارشناسان حوزه ديجيتال آن حزب نيز در حال همكاري با شركتهای معظم فناوري جهت زدن برچسب به مطالب و حسابهای كاربري ناامن هستند.
اما شركتهای مذكور پيرامون حذف، زدن برچسب، تنزل رتبه و حفظ جعليات از مشي يكسان پيروي نمیکنند. بهطور مثال يوتيوب فيلم تحریفشده پلوسي را كه شرح آن بهاختصار رفت، به سرعت از تارنماي خود حذف و اعلام كرد كه فيلم مذكور سياست اين سايت شبكه اجتماعي را با عملي گمراهکننده نقض كرده است اما فیسبوک ضمن خودداري از حذف ويدئوي مذكور به نشريه پست گفت كه پلتفرم مذكور فاقد سياستي است كه كاربران را ملزم به بارگذاري اطلاعات درست در اين سايت شبكه اجتماعي نمايد؛ مضاف اینکه نيك كلگ[63]سخنگوي ارشد فیسبوک تصريح كرد گفتار و مباحث سیاسی سیاستمداران از بررسی واقعیت معاف میشود؛ اگر و حتي مطالبشان قوانین اين سايت شبكه اجتماعي را نقض كند، آن محتوا همچنان روی این پلتفرم باقی میماند؛ چراكه به گفته وي سانسور با آنچه فیسبوک به آن اعتقاد دارد، مغایر است.[64]
يوتيوب اعلام كرد پيگيري و سرمایهگذاری در حوزه رسانههای تركيبي را در دستور كار خود قرار داده و اين را با مساعي پيشين خود مانند مبارزه با هرزه نگاری و يافتن فیلمهایی كه قوانين حق تكثير را نقض کردهاند - كه با كمك توأمان نرمافزار و نظارت انساني انجام میشود- قياس كرده است.
فیسبوک نيز در توضيح اقدامش در تأمین منابع مالي پژوهش پيرامون دستکاری رسانهای كه در برخي دانشگاهها انجام میشود، به نشريه پست گفت كه مبارزه با اطلاعات نادرست غيرعمدي[65]از مهمترین كارهايي است كه اين شركت در حال انجام آن است. البته فيسبوك پسازاین كه در مي 2019 از حذف ويدئوي تحریفشده پلوسي از پلتفرم خود امتناع كرد، يك ماه بعد يعني در ژوئن همان سال با ویدئوي ديپ فيك مارک زاکربرگ روبهرو شد که در اینستاگرام منتشر شد. فیلمی جعلی بر اساس سخنراني سال 2017 زاكربرگ، كه او را در حالي رو به دوربین نشان میدهد كه اظهار میکند کنترل کامل اطلاعات به سرقت رفته میلیاردها انسان، زندگي، اسرار و آینده آنها را در اختيار دارد. در ادامه اين مساعي جهت مبارزه با اطلاعات نادرست، شركت رسانهای مذكور در اكتبر 2019 برنامههای خود را براي انتخابات 2020 آمريكا اعلام كرد كه جلوگيري از گسترش اطلاعات نادرست و سرمایهگذاری در پروژههای مربوط به سواد رسانهای بخشي از آن محسوب ميشوند. فیسبوک در توضيح اين برنامه بيان كرده كه تلاش همزمان خود را در جهت كاستن اطلاعات نادرست در فیسبوک و اينستاگرام به كار بسته و بهطور مثال از گسترش اطلاعات مذكور در دو شبكه مزبور جهت ممانعت از پربيننده شدن آن اقدام میکند. طي اين برنامه اطلاعات نادرست را در اينستاگرام از جستوجو و هشتگها حذف كرده انتشار آن را در خبرخوان فیسبوک كاهش میدهد؛ مضاف اینکه اگر صفحهها، دامنهها و گروهها نسبت به تكرار اطلاعات نادرست اقدام كنند، ضمن ممانعت از اشاعه كلي محتوايشان در فيسبوك، در تبليغات و كسب درآمدشان محدوديت ايجاد میکند. اين شركت رسانهای مدعي شد طي نوامبر 2019 يك گروه مستقل راستي آزما، نسبت به زدن برچسب به تمامي مطالب بارگذاري شده در فیسبوک و اينستاگرام اقدام میکنند تا كاربران نسبت به اینکه كدامين مطلب را خوانده، به اشتراك نهاده و در مجموع بدان اعتماد كنند؛ تصميماتي بهتر اتخاذ كنند.[66]
توییتر اعلام كرد درعینحال كه هر هفته با موضوع بيش از هشت ميليون حساب كاربري كه در تلاشاند ضمن دستکاری محتوا به انتشار آن بپردازند، درگير است؛ ولي با این حال راستي آزمايي هر توييت را نيز امکانپذیر نمیداند. اين شركت میافزاید بر اين باور نيست كه بخواهد پيش از انتشار توييت در فضاي آنلاين پيرامون چيستي و صحت محتواي آن تصمیمگیری و مداخله کند.
اين شركت اظهار میکند آشكار شدن توييت دروغ در كسري از ثانيه اتفاق میافتد چراکه ديگر كاربران، بلادرنگ به بررسي توييتها مبادرت میکنند. توييتر مدعي است محتواهاي نادرست تا هنگامیکه كذب بودنشان اثبات شود به ميزاني ناچيز در توييتر بازنشر میشوند. لازم به ذكر است كه اين شركت هیچگونه آمار و ارقامي براي اثبات ادعاهايش ارائه نكرده است.
به گفته محققان در رابطه با داستانسراییهای تصويريِ نوين، مشكل فراگير نه پيچيدگي فیلمهای جعلي بلكه سوء تفسیر فیلمهای واقعي است. بهطور مثال تصويري از يك راهپيمايي اعتراضي واقعي يا زدوخورد شديد كه در شرح آن، مكان رخداد در جايي غير از مكاني كه اتفاق در آن رخداده، ذكر میشود.
با توجه به در پيش بودن انتخابات 2020 آمريكا ضرورتِ وجود سامانههای تشخيص ديپ فيك بیشتر احساس شده اما شرکتهای بزرگ آمريكايي همچنان به صيانت از انتخابات در چارچوب تخلفات سايبري تمايلي فزاينده دارند. شامير عليبحي[67]كه مؤسس استارت آپ آمبر[68]در حوزه تشخيص جعليات است میگوید كه شركتش با همكاري بخشي از مشتريانش در حال آزمايش يك پوشش محافظ در برابر ديپ فيك با استفاده از فناوري بلاكچين براي احراز هويت و روشي جديد در تفكيك قطعات فيلم همچنین پردازش سيگنال، همراه با تحليل کلیدواژههای محتواي صوتي و تصويري است.
پژوهشگران گفتهاند در جهاني كه فيلم نقشي اساسي در شکلدهی به تاريخ مدرن را ايفا كرده، يافتن روشهایی قطعي براي كشف جعليات حائز اهميت است و اين در حالي است كه عدهای از به خطر افتادن اعتبار فيلم بیمناکاند.
ممن دراینباره میگوید فرجام ديپ فيك به حقیقت ناباوری میانجامد و میافزاید اين در حالي است كه تصوير مردي كه در ميدان تيان آن من برابر تانك ايستاد جهان را تكان داد؛ صداي نيكسون از طريق تلفن براي ادامه دوران رياست جمهوري وي هزینهساز شد و تصاوير دهشتناك منتشرشده از اردوگاههای كار اجباري نازي، همگان را به اقدامي عملي واداشت. وي تصريح میکند اگر باور افراد به آنچه میبینند مورد هجمه واقع شود، نشانهای نگرانکننده از مشكلي بسيار بزرگ است. وي تصريح میکند كه افراد دگر بار بايد نور حقيقت را از پس ابرهاي سياه ديپ فيك ببينند.
* اين نوشتار ترجمهای آزاد از مقالهای است با نام
Top AI researchers race to detect ‘deepfake’ videos: We are outgunned
كه توسط Drew Harwell در ژوئن 2019 به رشته تحرير درآمده.
[1] Artificial Intelligence به سامانههایی گفته میشود که واكنشهايي مشابه رفتارهای هوشمند انسانی ازجمله درک شرایط پیچیده، شبیهسازی فرایندهای تفکری و شیوههای استدلالی انسانی و پاسخ موفق به آنها، یادگیری و توانایی کسب دانش و استدلال برای حل مسائل دارند.
[2] Deepfake كه با معادلهايي چون جعل عميق، جعل عمقي، جعل ژرف و يادگيري عميق جعل كردن از آن ياد میشود.
[3] Disinformation به اطلاعات نادرست عامدانه و نشر هدفمند و گسترده آن گفته میشود که بهطورمعمول خاستگاهی حاکمیتی دارد. در چارچوب اطلاعات نادرست عامدانه كه اغلب همسنگ اخبار جعلي فرض میشود، مخاطب بر بستر اين اطلاعات زيسته، طي فرايندي مطول فریفته شده؛ آنگاه پيرامون امري به باوري كذب میرسد. (فلسفي، 1398: 82)
[4] Fake News عبارت است از توليد و نشر عامدانه اطلاعات نادرست و گمراهكننده و/يا شايعه به منظور جهت دادن به افکار عمومی براي كسب منافعي خاص.
[5] Elyse Samuels
[6] www.youtube.com/watch?v=TgcvQA6-qBg
[7] Scarlett Johansson
[8] Hany Farid
[9] www.latimes.com/business/technology/la-fi-tn-fake-videos-20180219-story.html
[10] Nancy Patricia D'Alesandro Pelosi
[11] http://yon.ir/dwcCO
[12] Ali Bongo Ondimba
[13] Malaymail
[14] www.malaymail.com/news/malaysia/2019/06/12/the-real-haziq-not-as-built-santubong-pkr-chief-says-of-man-in-gay-sex-clip/1761392
[15] www.reddit.com
[16] Deep learning زیرشاخهای از یادگیری ماشین که از مجموعهای از الگوریتمها براي پردازش سیگنالهای حسی مانند صدا و تصویر استفاده میکند.
[17] Capitol Hill مقر حکومتي ایالاتمتحده در شهر واشنگتن دي. سي. كه ساختمانهاي سنا، مجلس نمایندگان و دیوان عدالت عالی در آن واقع است.
[18] Adam B. Schiff
[19] Rachel Thomas
[20] www.fast.ai
[21] http://aviv.me
[22] Pew Research Center
[23] Robert M. Chesney
[24] Danielle Citron
[25] www.poynter.org/ethics-trust/2019/the-liars-dividend-is-dangerous-for-journalists-heres-how-to-fight-it
[26] www.cjr.org/politics/trump-coverage-inauguration-press-media.php
[27] اندیشهای بنيادي براي تجلي آزادي بيان و داراي منطقي شبيه به اقتصاد بازار آزاد است؛ بدين معني كه حقيقت در فضايي مملو از رقابت ميان ایدههای گوناگون و گفتمان عمومي شفاف ظاهر میشود.
[28] Skolkovo
[29] Few Shot
[30] Ohad Fried
[31] De-Identification
[32] https://venturebeat.com/2019/10/25/facebook-alters-video-to-make-people-invisible-to-facial-recognition
[33] https://b2n.ir/14403
[34] Generative Pretrained Transformer-2 (GPT-2)
[35] https://openai.com
[36] www.zoomit.ir/2019/5/28/336405/gpt2-language-model
[37] Generative Adversarial Network (GAN)
[38] www.theverge.com/2019/2/14/18224704/ai-machine-learning-language-models-read-write-openai-gpt2
[39] GPT
[40] https://openai.com/blog/better-language-models
[41] https://arxiv.org/pdf/1906.01946.pdf
[42] https://allenai.org
[43] Grover
[44] Nitesh Saxena
[45] MelNet
[46] Jane Morris Goodall
[47] https://arxiv.org/pdf/1906.01083.pdf
[48] www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
[49] Nasir Memon
[50] Defense Advanced Research Projects Agency (DARPA)
[51] MediFor
[52] Matt Turek
[53] Computer Vision يا بينايي رايانه، شامل روشهای مربوط به پردازش، تجزیه و تحلیل و درک محتوای تصاویر يا فیلمهای ديجيتال است.
[54] Synthetic Media رسانههایی ديجيتال يا در نگاهي کلانتر رسانههایی تغییریافتهاند كه اغلب توسط الگوریتمها هدايت میشوند. برخي صاحبنظران ديپ فيكها را ذيل رسانههای تركيبي تعريف میکنند.
[55] Elizabeth Warren
[56] https://news.berkeley.edu/2019/06/18/researchers-use-facial-quirks-to-unmask-deepfakes
[57] Puppet Master Fakes
[58]http://openaccess.thecvf.com/content_CVPRW_2019/papers/Media%20Forensics/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf
[59] Sam Gregory
[60] Witness
[61] Siwei Lyu
[62] https://hackernoon.com/detecting-fake-video-needs-to-start-with-video-authentication-224a988996ce
[63] Nick Clegg
[64] http://yon.ir/KguFO
[65] Misinformation اطلاعاتی نادرست بدون تعمد در گمراهسازی مخاطب است که رشد آن به واسطه توسعه بنیانهای فناورانه در حوزه تبادل اطلاعات به ویژه در فضای آنلاين فزوني يافته است. توليد و نشر این اطلاعات بهطورمعمول از سوي خبرنگاران و سازمانهای خبري كه صادقانه به حرفه خود پايبندند اما به دلايلي چون خطاي انساني يا سوء عملکرد سازماني ناخواسته به ورطه توليد و نشر اطلاعات ناراست فرو میغلتند، انجام میپذيرد. البته فارغ از خبرنگاران و سازمانهای خبري، برخي مخاطبان نيز اين اطلاعات را به اشتراک مینهند كه به زعم خود اطلاعاتي موثق را با ديگران سهيم ميشوند. (فلسفي، 1398: 81)
[66] https://newsroom.fb.com/news/2019/10/update-on-election-integrity-efforts
[67] Shamir Allibhai
[68] https://ambervideo.co
ديگر منابع
- سلطانی فر، محمد.، سليمي، مريم.، و فلسفي، سيد غلامرضا. (1396، پاييز). اخبار جعلي و مهارتهاي مقابله با آن. فصلنامه رسانه. دوره 28، شماره سه، شماره پیاپی 108، صفحه 43-69.
http://qjmn.farhang.gov.ir/article_51733.html
- فلسفي، سيد غلامرضا. (1398، خرداد و تير). جهان در خطر بازگشت به عصر تاريكي. مجله بازخورد. سال دوم، شماره هشتم، صفحه 79-89.
magiran.com/p1998506