در این روزهای داغ کارزار انتخابات آمریکا شما هم این فیلم را دیدهاید که باراک اوباما، رئیس جمهور سابق آمریکا، دونالد ترامپ را «احمقی به تمام معنا» خطاب میکند؟ یا فیلمی که مارک زاکربرگ، صاحب شبکه اجتماعی فیسبوک، ادعا میکند کنترل کاملی روی اطلاعات دزدیده شده میلیونها کاربر دارد؟ یا فیلمی که شخصیتهای بزرگ و مبارز تاریخ کشورمان از میرزاکوچک خان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایران من» از همایون شجریان را میخوانند؟ اگر پاسخ شما به یکی از این سوالها مثبت است، باید بگویم آنچه شما دیده اید فیلمی بوده که با فناوری جعل عمیق (Deep Fake) ساخته شده است! فناوری جعل عمیق در واقع با کمک شکلی از فناوری هوش مصنوعی که یادگیری عمیق (Deep Leaning) نامیده میشود، تصاویر یا فیلمهایی از اتفاقات غیرواقعی میسازد. برای همین آن را جعل عمیق مینامند. این فناوری نو به افرادی که در زمینه هوش مصنوعی تخصصی ندارند، اجازه میدهد با داشتن تعداد زیادی عکس، یک ویدئوی جعلی بسازند. ساخت این فیلمهای جعلی به خصوص در دنیای چهره های مشهور با سرعت بیشتری گسترش پیدا کرده است. اگر دوست دارید خودتان جای ستاره فیلم مورد علاقهتان بازی کنید، یا حرفهای مورد نظر خودتان را از زبان فرد دیگری بگویید، فناوری جعل عمیق یاریگر شماست! در ادامه به ۱۰ سوال مهمی که معمولا در مورد جعل عمیق پرسیده می شود پاسخ می دهیم.
آیا جعل عمیق فقط در مورد ویدئوهاست؟
خیر. فناوری جعل عمیق میتواند از صفر، تصاویری کاملا ساختگی اما باورپذیر بسازد. برای مثال پروفایل توییتری و لینکداین کاربری با نام Maisy Kinsley که خود را خبرنگار ارشد رسانه بلومبرگ (Bloomberg) معرفی کرده است، وجود خارجی ندارد و یک پروفایل جعل عمیق است. همین طور حساب کاربری Katie Jones که ادعا میکند در مرکز مطالعات راهبردی و بینالمللی کار میکند نیز یک پروفایل جعل عمیق است که احتمالا برای عملیات جاسوسی ساخته شده است. حتی جعل عمیق در قالب صوتی نیز میتواند باشد، یعنی یک صدای شبیهسازی شده از اشخاص معروف ساخته شود. فروردین گذشته شرکتی بریتانیایی در حوزه انرژی یک تماس تلفنی از سوی شرکت مادر خود در آلمان دریافت میکند. در این تلفن از او خواسته میشود مبلغی نزدیک به ۲۰۰ هزار دلار را به حساب بانکی در مجارستان واریز کند. اما در واقعیت آن سوی تلفن کلاهبردارانی نشسته بودند که صدای مدیرعامل شرکت آلمانی را تقلید کرده بودند. شرکت بیمه معتقد است صدا جعل عمیق بوده است، اما هنوز شواهد کافی در دست ندارد. گفته میشود کلاهبرداران از پیامهای صوتی ضبط شده در واتس اپ استفاده کرده بودند.
جعل عمیق چطور ساخته میشود؟
مدتهاست پژوهشگران دانشگاهها و استودیوهای جلوههای ویژه مرزهای هر آنچه را که میتوان با دستکاری فیلمها و صداها انجام داد، جابهجا کردهاند. به طور کلی دو روش برای ساخت فیلمهای جعل عمیق وجود دارد:
در روش اول تنها چند قدم طول میکشد تا ویدئویی با تغییر چهرهها بسازید. فرض کنید چهره دو نفر الف و ب را میخواهید با هم جابهجا کنید. ابتدا هزاران عکس از صورت این دو نفر را انتخاب کنید. حالا تمام تصاویر چهرههای الف و ب را میدهیم به الگوریتمی از هوش مصنوعی که رمزنگار (encoder) نامیده میشود. رمزنگار شباهتهای بین دو چهره را پیدا میکند، آنها را یاد میگیرد و بعد آنها را کدگذاری میکند. در قدم دوم الگوریتم هوش مصنوعی دیگری که رمزگشا (decoder) نامیده میشود، قرار است تصاویر کدشده را بازسازی کند. اما چون چهره دو نفر با هم تفاوت دارد، برای هر چهره رمزگشای مجزایی را باید تعریف کرد. رمزگشای اول تصویر چهره نفر الف و رمزگشای دوم تصویر نفر ب را بازسازی میکند. حالا در یک قدمی جابهجایی تصاویر هستیم. کافی است تصویر کدگذاری شده نفر الف را به عنوان ورودی به رمزگشای دوم بدهیم. رمزگشای دوم چهره نفر ب را با حالت و موقعیت چهره نفر الف بازسازی میکند. برای ساخت یک ویدئوی باورپذیر هم کافی است اینکار را برای هر فریم تکرار کرد. روش دوم شبکههای مولد تخاصمی (Generative Adversarial Network) یا گن (GAN) نام دارد. در این روش دو الگوریتم هوش مصنوعی در برابر یکدیگر قرار میگیرند. الگوریتم اول که مولد (generator) نام دارد، دادههای تصادفی را به تصویر تبدیل میکند. سپس تصویر ساختگی به زنجیره ای از تصاویر واقعی (مثل تصاویر افراد معروف) اضافه میشود و به عنوان ورودی به الگوریتم دوم که متمایزگر (discriminator) است، منتقل میشود. الگوریتم دوم کار ارزیابی دادههای ورودی و تشخیص واقعی یا جعلی بودن تصاویر را برعهده دارد. هر بار که متمایزگر تشخیص درستی از جعلی بودن تصویر داشته باشد به مولد بازخورد میدهد. مولد هم بر اساس بازخوردها، خطاهایش را تصحیح و جعل جدیدی میسازد. این فرآیند بیشمار مرتبه تکرار میشود تا عملکرد مولد و متمایزگر بهبود یابد تا جایی که مولد، چهرههایی کاملا واقعی از افراد معروفی میسازد که اصلا وجود خارجی ندارند.
آیا جعل عمیق میتواند ویرانگر باشد؟
با روند فعلی باید منتظر جعل عمیقهای بیشتری باشیم که قصدشان آزار رساندن، ترساندن، تحقیرکردن، بی اعتبارسازی و ایجاد بیثباتی است. اما آیا جعل عمیق در عرصه بینالمللی نیز خطرناک است؟
در این مورد وضعیت مشخص نیست. اما آنچه مشخص است این که یک ویدئوی جعل عمیق از رهبران مهم دنیا یا تصاویر جعلی که تجمع نیروهای نظامی را در مرزها نشان می دهد، جنجال غیرقابل کنترلی به پا نخواهد کرد و در بیشتر کشورها مردم به دستگاه امنیتی خود اعتماد دارند.
اما به هر حال قابلیت های این فناوری فضای کافی برای آشوب آفرینی را دارد. آیا جعل عمیق میتواند قیمت سهام را تغییر دهد یا بر رای دهندهها تاثیر بگذارد یا به تنشهای مذهبی دامن بزند؟ بله ممکن است، اما بهتر است امیدوار باشیم با افزایش آگاهی عمومی این موارد قابل کنترل خواهد بود و خطر زیادی نخواهد داشت.
چه کسی جعل عمیق را میسازد؟
همه! از پژوهشگران دانشگاهی و صنعتی گرفته تا افراد غیرحرفهای که از روی علاقه این کار را دنبال می کنند. سیاسیون نیز ممکن است به عنوان قسمتی از استراتژیهای آنلاین خود برای بی اعتبارکردن و بر هم زدن انسجام گروههای رقیب افراطی یا برقراری تماس با فردی خاص در این فناوری سرک بکشند.
چه نوع فناوری ای برای جعل عمیق نیاز است؟
اگر تا اینجا به فکر ساخت تصویر، ویدئو یا صدایی با فناوری جعل عمیق افتادهاید، بد نیست بدانید ساخت ویدئو، صدا یا عکسی در قالب جعل عمیق باکیفیت، آن هم با رایانه های معمولی کار سختی است. بیشتر این فیلم ها با رایانه های رده بالا با کارت گرافیک قدرتمند و از آن بهتر با قدرت محاسبه در فضای ابری ساخته می شود. زمان پردازش نیز از هفتهها و روزها به چند ساعت کاهش مییابد. همینطور سازندگان به مهارت بالایی در از بین بردن لرزش تصویر و دیگر عیبهای بصری در ویدئوها نیاز دارند. ولی ناامید نشوید، امروزه شرکتهای زیادی ابزار و نرم افزارهایی را برای ساخت جعل عمیق در اختیارمان قرار میدهند و میتوانیم چهره خود را جایگزین بازیگرهای بعضی از برنامههای تلویزیونی کنیم.
آیا اعتماد به مستندات از بین میرود؟
در جامعهای که مردم نمیتوانند یا این زحمت را به خود نمیدهند که اخبار درست را از اخبار جعلی متمایز کنند، تاثیرات توطئهآمیز جعل عمیق در کنار اخبار جعلی، به گسترش بی اعتمادی در جامعه دامن می زنند. وقتی اعتماد از بین برود، ایجاد شبهه در مورد وقایع خاص آسانتر خواهد بود.
با دسترسی بیشتر به این فناوری، جعل عمیق میتواند مشکلات زیادی را در دادگاهها به وجود آورد. به ویژه در مورد پروندههای اخذ حضانت فرزندان و شرکتهای بیمه که اتفاقات غیرواقعی ممکن است به عنوان شاهد به دادگاه ارائه شوند.
جعل عمیق حتی میتواند امنیت اشخاص را نیز تهدید کند. جعل عمیق با تقلید از اطلاعات زیست سنجی (بیومتریک)، هر سامانه ای را که متکی به تشخیص چهره، صدا، رگهای خونی چشم یا نحوه راه رفتن باشد، فریب میدهد. تا اینجا احتمال کلاهبرداری مشخص است. برای مثال اگر بی مقدمه کسی با شما تماس بگیرد و تقاضای پول کند، بعید است به حساب بانکی کسی که نمیشناسید، به آسانی پول واریز کنید. ولی اگر یکی از اعضای خانواده تان از طریق تماس تصویری همین درخواست را داشته باشد، چه؟! حتما نتیجه فرق خواهد کرد!
چگونه جعل عمیق را تشخیص دهیم؟
به سختی! با پیشرفت فناوری این کار سختتر هم میشود. سال ۹۷ بود که پژوهشگران دریافتند چهرههایی که با جعل عمیق ساخته شده اند، پلک نمیزنند. اما این کشف، کاربردی در مورد تصاویر جعل عمیق ندارد. چون همیشه افراد با چشم باز عکس میگیرند. ولی درمورد ویدئوها راه حلی جادویی به نظر میرسید. اما با انتشار این یافته، بلافاصله جعل عمیقهایی ساخته شد که در آنها پلک زدن هم وجود داشت. این طبیعت بازی است. به محض پیداشدن یک ضعف، آن را برطرف می کنند. تشخیص جعل عمیقهای با کیفیت پایین سادهتر است. ممکن است حرکت لبها همگام نشده یا رنگ پوست ناهمگون باشد. همینطور صورت که جابهجا میشود و لرزش تصویر وجود داشته باشد. به ویژه جزئیات ریز مثل موها در جعل عمیق معمولا با کیفیت ساخته نمیشود. جواهرات، دندانها، روشنایی نامناسب محیط و بازتاب نور در عنبیه چشم نیز میتواند سرنخی در این تشخیص باشد. دولتها، دانشگاهها و شرکتهای فناوری همه به دنبال توانایی تشخیص جعل عمیق هستند. اولین مسابقه تشخیص جعل عمیق با حمایت شرکتهایی مثل مایکروسافت، فیسبوک و آمازون در سراسر جهان در حال برگزاری است. با نزدیک شدن به انتخابات آمریکا، شبکههای مجازی، ویدئوهای جعل عمیقی را حذف می کنند که حاوی اطلاعات نادرست باشند. اما این سیاست شامل ویدئوهای جعل کم عمق (shallow fakes) نمیشود.
آیا جعل عمیق همیشه مخرب است؟
خیر! اتفاقا بسیار سرگرم کننده و مفید میتواند باشد. برای مثال در جعل عمیق صوتی، میتوان صدای افرادی را برگرداند که به دلیل بیماری صدای خود را از دست دادهاند. ویدئوهای جعل عمیق به گالریها و موزهها روح تازهای میبخشند. موزه سالوادور دالی در فلوریدا از نقاش سوررئالیست خود ویدئوی جعل عمیقی ساخته است که آثار خود را به بازدیدکنندگان معرفی و با آنها عکس سلفی میگیرد. در صنعت سرگرمی از این فناوری برای دوبله فیلمها هم استفاده میشود. حتی این فناوری برای زنده کردن بازیگرانی که از دنیا رفتهاند هم پیشنهاد میشود.
راه حل ما در برابر قابلیت های جعل عمیق چیست؟
از قضا هوش مصنوعی، راه حلی برای این فناوری در آستین دارد. در حال حاضر با کمک هوش مصنوعی میتوان ویدئوهای جعلی را تشخیص داد. ولی این الگوریتمهای تشخیص، ضعفی جدی دارند؛ زیرا جعل عمیق برای افراد مشهور که ساعتها فیلم رایگان از آنها در دسترس است بهترین عملکرد را دارد. شرکتهای فناوری تلاش میکنند محتوای جعلی را در هر جا که منتشر میشود، تشخیص دهند. استراتژیهای دیگری هم وجود دارد. برای مثال استفاده از واترمارک دیجیتال که البته چندان هم بیخطر نیست. اما یک سیستم بلاک چین میتواند ویدئوها، تصاویر و صداهای جعلی و هر دستکاری را تشخیص دهد و نسخه اصلی آنها را پیدا کند.
ماجرای محتواهای جعل کم عمق از چه قرار است؟
فیلمهای جعل کم عمق (shallow fakes) در بستری متفاوت ارائه میشوند و ابزارهای ویرایش سادهای دارند. در این ویدئوها برای فریب مخاطب، سرعت پخش قسمتی از فیلم آهسته یا سریع میشود تا برداشت متفاوتی از فیلم را القا کند. گرچه برخی از این ویدئوها ناشیانه ساخته میشوند ولی تاثیر چشمگیری دارند.
جیم آکوستا، خبرنگار سی ان ان مجوز ورودش به کاخ سفید پس از تنش لفظی با دونالد ترامپ لغو شد. پس از آن فیلم جعل کم عمقی منتشر شد که نشان میداد در نشست خبری ترامپ، زمانی که کارمند کاخ سفید قصد داشته میکروفن را از آقای آکوستا بگیرد، وی رفتار تهاجمی داشته است. بعدا مشخص شد این فیلم درست در لحظه حساس سرعتش بیشتر شده و حرکت دست آکوستا تهاجمی جلوه داده شده است. پس از این اتفاق وی دوباره به کارش بازگشت.
چه با جعل عمیق و چه با جعل کم عمق این دردسرها روزبهروز بیشتر میشود و این فناوری نهتنها از بین نمی رود، بلکه کم کم جهان اطرافمان را غیرواقعیتر می کند.
روزنامه جام جم- شماره 5779- 22 مهر 1399