تا قبل از دسامبر سال 2017 شاید مفهومی به اسم "جعل عمیق" یا به اصلاح (Deep Fake) کاملا ناشناخته بود، تا اینکه درست در همین زمان یک کاربر به نام "Deep Fakes" ویدیوهایی به نظر واقعی از افراد مشهور را در رسانه Reddit ارسال کرد. او این فیلمهای جعلی را با استفاده از یادگیری عمیق(deep learning)، جدیدترین تکنولوژی هوش مصنوعی، به منظور قرار دادن چهرههای افراد مشهور در فیلمهای سینمایی تولید کرد.
در هفتههای بعدی اینترنت با مقالاتی در مورد خطرات ناشی از فناوری تعویض چهره منفجر شد.
همانطور که اشاره شد این نام در حقیقت نام کاربری یک کاربر در سایت Reddit بوده که نشات گرفته از deep learning (یادگیری عمیق) میباشد و زیر مجموعه ای از تکنولوژی machine learning (یادگیری ماشینی) که از لایههایی از شبکههای عصبی مصنوعی به منظور آموزش کامپیوتر برای انجام یک کار استفاده میشود.
برای تولید ویدیو با استفاده از "جعل عمیق"، به اصطلاح (deep fake video)، به طور کلی تعدادی عکس با کیفیت بالا از صورت شخص مورد هدف به برنامه داده میشود و سپس به شکل متناظر با صورت شخص دیگری در فیلم تعویض میشود.
همچنین "جعل عمیق" صوتی یا به اصطلاح (deep fake audio)، تنها نیاز به یک ضبط معمولی برای یادگیری با استفاده از کامپیوتر، به شکلی که بتواند شبیه فرد خاصی صحبت کند، تولید میشود. طبق همین روش میتوان متن جعلی هم تولید کرد.
ویدیو هایی که با سرعت آهسته یا سرعت بالا برای فریب افراد ویرایش میشوند معمولا به عنوان "جعل عمیق" به حساب نمیآیند و گاها این دست از فیلمها را جعل کم عمق(shallow fake) مینامند.
یک شرکت واقع در آمستردام که به نظارت و تشخیص محتوای "جعل عمیق" میپردازد، طبق گزارش نتایج تحقیقات خود در ماه سپتامبر عنوان کرد که 96 درصد از محتوای "جعل عمیق" متعلق به دستکاری محتوای مستهجن است. به شکلی که صورت افراد دیگری به جای صورت بازیگران این فیلمها قرار داده میشوند.
عمدتا ترس افراد ممکن است ناشی از این امر باشد که "جعل عمیق" میتواند به شکل ناروا، شهرت و اعتبار افراد را تخریب کند و عواقبی از جمله ایجاد سلطه بر روی نتایج انتخابات و یا بالا بردن قیمت سهام به شکلی تصنعی که باعث ایجاد نا آرامی در بازار بورس میگردد را داشته باشد. عمدتا افراد مشهور و بهویژه سیاستمداران و رهبران مشاغل در معرض این دست از خطرات هستند.
متاسفانه هنگامیکه یک ویدیوی نامربوط در اینترنت ارسال میشود، جلوگیری از ترویج آن تقریبا غیرممکن است.
همچنین نگرانی از عدم آگاهی از جعلیات مربوط به "جعل عمیق" و تشخیص و تمییز آن از حقیقت مزید بر علت میگردد.
وجود "جعل عمیق" همچنین میتواند تسهیلاتی را برای افراد صادقی که دچار مشکل شده اند ایجاد کند. مثلا به عنوان مدرکی برای اثبات ادعای مبنی بر رد اتهام ناروای شخص دیگری نسبت به خود مورد استفاده قرار دهد.
طبق اعلام فیسبوک اگر محتوای مطلبی حاوی دو شاخصه زیر باشد "جعل عمیق" شناخته شده و حذف خواهد شد:
محققان و شرکتهای مختلفی بر روی گسترش و پیشرفت فناوری "جعل عمیق" کار میکنند.
محققان دانشگاه کارنگی ملون آمریکا سامانهای را طراحی کردهاند که قادر است ویژگیهایی از جمله چهره فردی را از ویدیوی یک فرد به تصویر تلفیقی از فرد دیگری منتقل کند.
شرکت Baidu چین و چند استارت آپ دیگر نیز یک سیستم تبدیل متن به صدا (voice cloning ) ارائه دادند که میتواند به عنوان یک رابط کاربری بین انسان و ماشین عمل کند.
"جعل عمیق" معضلات اخلاقی ای را برای محققان ایجاد کرده است. به این دلیل که آنها در تلاشند تا روشهایی برای بهبود و دستیابی بیشتر به فناوریای را پیدا کنند که در درجه اول برای اهداف مخرب استفاده میشود.
یکی از توجیهاتی که عنوان میشود این است که فناوری به هر حال در نهایت نشت پیدا خواهد کرد؛ دیگر اینکه میتوان از همین فناوری برای تشخیص خود "جعل عمیق" استفاده کرد.
همانطور که ابتدا اشاره شد یادگیری ماشینی (machine learning) یکی از فناوریهای هوش مصنوعی محسوب شود. حال اینکه میتوان از یادگیری ماشینی برای شناسایی و تشخیص حرکات سر و دست در محتوای "جعل عمیق" که برای افراد واقعی نیستند استفاده کرد. همچنین میتوان الگوریتمهایی را برای شناسایی تغییرات در الگوهای به کار برده شده از فرآیند ضبط، آموزش داد.
وزارت دفاع آمریکا و همچنین گوگل و فیسبوک، مجموعه دادههایی را برای كمك به پژوهشگران در زمینه کار و گسترش راه حلها ارائه میدهند.
جواب بله است :)
نمونههای از این موارد به شرح زیر است:
منابع:
- bloomberge.com:
How Deepfakes Make Disinformation More Real Than Ever.
- Medium.com:
Exploring DeepFakes.