ریحانه رادی
ریحانه رادی
خواندن ۹ دقیقه·۳ سال پیش

دیگر به چشمتان هم اعتماد نکنید!

در این روزهای داغ کارزار انتخابات آمریکا شما هم این فیلم را دیده‎اید که باراک اوباما، رئیس جمهور سابق آمریکا، دونالد ترامپ را «احمقی به تمام معنا» خطاب می‎کند؟ یا فیلمی که مارک زاکربرگ، صاحب شبکه اجتماعی فیسبوک، ادعا می‎کند کنترل کاملی روی اطلاعات دزدیده شده میلیون‎ها کاربر دارد؟ یا فیلمی که شخصیت‎های بزرگ و مبارز تاریخ کشورمان از میرزاکوچک خان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایران من» از همایون شجریان را می‎خوانند؟ اگر پاسخ شما به یکی از این سوال‎ها مثبت است، باید بگویم آنچه شما دیده اید فیلمی بوده که با فناوری جعل عمیق (Deep Fake) ساخته شده است! فناوری جعل عمیق در واقع با کمک شکلی از فناوری هوش مصنوعی که یادگیری عمیق (Deep Leaning) نامیده می‎شود، تصاویر یا فیلم‎هایی از اتفاقات غیرواقعی می‎سازد. برای همین آن را جعل عمیق می‎نامند. این فناوری نو به افرادی که در زمینه هوش مصنوعی تخصصی ندارند، اجازه می‎دهد با داشتن تعداد زیادی عکس، یک ویدئوی جعلی بسازند. ساخت این فیلم‎های جعلی به خصوص در دنیای چهره های مشهور با سرعت بیشتری گسترش پیدا کرده است. اگر دوست دارید خودتان جای ستاره فیلم مورد علاقه‎تان بازی کنید، یا حرف‎های مورد نظر خودتان را از زبان فرد دیگری بگویید، فناوری جعل عمیق یاریگر شماست! در ادامه به ۱۰ سوال مهمی که معمولا در مورد جعل عمیق پرسیده می شود پاسخ می دهیم.

آیا جعل عمیق فقط در مورد ویدئوهاست؟

خیر. فناوری جعل عمیق می‎تواند از صفر، تصاویری کاملا ساختگی اما باورپذیر بسازد. برای مثال پروفایل توییتری و لینکداین کاربری با نام Maisy Kinsley که خود را خبرنگار ارشد رسانه بلومبرگ (Bloomberg) معرفی کرده است، وجود خارجی ندارد و یک پروفایل جعل عمیق است. همین طور حساب کاربری Katie Jones که ادعا می‎کند در مرکز مطالعات راهبردی و بین‎المللی کار می‎کند نیز یک پروفایل جعل عمیق است که احتمالا برای عملیات جاسوسی ساخته شده است. حتی جعل عمیق در قالب صوتی نیز می‎تواند باشد، یعنی یک صدای شبیه‎سازی شده از اشخاص معروف ساخته شود. فروردین گذشته شرکتی بریتانیایی در حوزه انرژی یک تماس تلفنی از سوی شرکت مادر خود در آلمان دریافت می‎کند. در این تلفن از او خواسته می‎شود مبلغی نزدیک به ۲۰۰ هزار دلار را به حساب بانکی در مجارستان واریز کند. اما در واقعیت آن سوی تلفن کلاهبردارانی نشسته بودند که صدای مدیرعامل شرکت آلمانی را تقلید کرده بودند. شرکت بیمه معتقد است صدا جعل عمیق بوده است، اما هنوز شواهد کافی در دست ندارد. گفته می‎شود کلاهبرداران از پیام‎های صوتی ضبط شده در واتس اپ استفاده کرده بودند.

جعل عمیق چطور ساخته می‎شود؟

مدت‎هاست پژوهشگران دانشگاه‎ها و استودیوهای جلوه‎های ویژه مرزهای هر آنچه را که می‎توان با دستکاری فیلم‎ها و صداها انجام داد، جابه‎جا کرده‎اند. به طور کلی دو روش برای ساخت فیلم‎های جعل عمیق وجود دارد:

در روش اول تنها چند قدم طول می‎کشد تا ویدئویی با تغییر چهره‎ها بسازید. فرض کنید چهره دو نفر الف و ب را می‎خواهید با هم جابه‎جا کنید. ابتدا هزاران عکس از صورت این دو نفر را انتخاب کنید. حالا تمام تصاویر چهره‎های الف و ب را می‎دهیم به الگوریتمی از هوش مصنوعی که رمزنگار (encoder) نامیده می‎شود. رمزنگار شباهت‎های بین دو چهره را پیدا می‎کند، آنها را یاد می‎گیرد و بعد آنها را کدگذاری می‎کند. در قدم دوم الگوریتم هوش مصنوعی دیگری که رمزگشا (decoder) نامیده می‎شود، قرار است تصاویر کدشده را بازسازی کند. اما چون چهره دو نفر با هم تفاوت دارد، برای هر چهره رمزگشای مجزایی را باید تعریف کرد. رمزگشای اول تصویر چهره نفر الف و رمزگشای دوم تصویر نفر ب را بازسازی می‎کند. حالا در یک قدمی جابه‎جایی تصاویر هستیم. کافی است تصویر کدگذاری شده نفر الف را به عنوان ورودی به رمزگشای دوم بدهیم. رمزگشای دوم چهره نفر ب را با حالت و موقعیت چهره نفر الف بازسازی می‎کند. برای ساخت یک ویدئوی باورپذیر هم کافی است این‎کار را برای هر فریم تکرار کرد. روش دوم شبکه‎های مولد تخاصمی (Generative Adversarial Network) یا گن (GAN) نام دارد. در این روش دو الگوریتم هوش مصنوعی در برابر یکدیگر قرار می‎گیرند. الگوریتم اول که مولد (generator) نام دارد، داده‎های تصادفی را به تصویر تبدیل می‎کند. سپس تصویر ساختگی به زنجیره ای از تصاویر واقعی (مثل تصاویر افراد معروف) اضافه می‎شود و به عنوان ورودی به الگوریتم دوم که متمایزگر (discriminator) است، منتقل می‎شود. الگوریتم دوم کار ارزیابی داده‎های ورودی و تشخیص واقعی یا جعلی بودن تصاویر را برعهده دارد. هر بار که متمایزگر تشخیص درستی از جعلی بودن تصویر داشته باشد به مولد بازخورد می‎دهد. مولد هم بر اساس بازخوردها، خطاهایش را تصحیح و جعل جدیدی می‎سازد. این فرآیند بی‎شمار مرتبه تکرار می‎شود تا عملکرد مولد و متمایزگر بهبود یابد تا جایی که مولد، چهره‎هایی کاملا واقعی از افراد معروفی می‎سازد که اصلا وجود خارجی ندارند.

آیا جعل عمیق می‎تواند ویرانگر باشد؟

با روند فعلی باید منتظر جعل عمیق‎های بیشتری باشیم که قصدشان آزار رساندن، ترساندن، تحقیرکردن، بی اعتبارسازی و ایجاد بی‎ثباتی است. اما آیا جعل عمیق در عرصه بین‎المللی نیز خطرناک است؟

در این مورد وضعیت مشخص نیست. اما آنچه مشخص است این که یک ویدئوی جعل عمیق از رهبران مهم دنیا یا تصاویر جعلی که تجمع نیروهای نظامی را در مرزها نشان می دهد، جنجال غیرقابل کنترلی به پا نخواهد کرد و در بیشتر کشورها مردم به دستگاه امنیتی خود اعتماد دارند.

اما به هر حال قابلیت های این فناوری فضای کافی برای آشوب آفرینی را دارد. آیا جعل عمیق می‎تواند قیمت سهام را تغییر دهد یا بر رای دهنده‎ها تاثیر بگذارد یا به تنش‎های مذهبی دامن بزند؟ بله ممکن است، اما بهتر است امیدوار باشیم با افزایش آگاهی عمومی این موارد قابل کنترل خواهد بود و خطر زیادی نخواهد داشت.

چه کسی جعل عمیق را می‎سازد؟

همه! از پژوهشگران دانشگاهی و صنعتی گرفته تا افراد غیرحرفه‎ای که از روی علاقه این کار را دنبال می کنند. سیاسیون نیز ممکن است به عنوان قسمتی از استراتژی‎های آنلاین خود برای بی اعتبارکردن و بر هم زدن انسجام گروه‎های رقیب افراطی یا برقراری تماس با فردی خاص در این فناوری سرک بکشند.

چه نوع فناوری ای برای جعل عمیق نیاز است؟

اگر تا اینجا به فکر ساخت تصویر، ویدئو یا صدایی با فناوری جعل عمیق افتاده‎اید، بد نیست بدانید ساخت ویدئو، صدا یا عکسی در قالب جعل عمیق باکیفیت، آن هم با رایانه های معمولی کار سختی است. بیشتر این فیلم ها با رایانه های رده بالا با کارت گرافیک قدرتمند و از آن بهتر با قدرت محاسبه در فضای ابری ساخته می شود. زمان پردازش نیز از هفته‎ها و روزها به چند ساعت کاهش می‎یابد. همین‎طور سازندگان به مهارت بالایی در از بین بردن لرزش تصویر و دیگر عیب‎های بصری در ویدئوها نیاز دارند. ولی ناامید نشوید، امروزه شرکت‎های زیادی ابزار و نرم افزار‎هایی را برای ساخت جعل عمیق در اختیارمان قرار می‎دهند و می‎توانیم چهره خود را جایگزین بازیگرهای بعضی از برنامه‎های تلویزیونی کنیم.

آیا اعتماد به مستندات از بین می‎رود؟

در جامعه‏ای که مردم نمی‎توانند یا این زحمت را به خود نمی‎دهند که اخبار درست را از اخبار جعلی متمایز کنند، تاثیرات توطئه‎آمیز جعل عمیق در کنار اخبار جعلی، به گسترش بی اعتمادی در جامعه دامن می زنند. وقتی اعتماد از بین برود، ایجاد شبهه در مورد وقایع خاص آسان‎تر خواهد بود.

با دسترسی بیشتر به این فناوری، جعل عمیق می‎تواند مشکلات زیادی را در دادگاه‎ها به وجود آورد. به ویژه در مورد پرونده‎های اخذ حضانت فرزندان و شرکت‎های بیمه که اتفاقات غیرواقعی ممکن است به عنوان شاهد به دادگاه ارائه شوند.

جعل عمیق حتی می‎تواند امنیت اشخاص را نیز تهدید کند. جعل عمیق با تقلید از اطلاعات زیست سنجی (بیومتریک)، هر سامانه ای را که متکی به تشخیص چهره، صدا، رگ‎های خونی چشم یا نحوه راه رفتن باشد، فریب می‎دهد. تا اینجا احتمال کلاهبرداری مشخص است. برای مثال اگر بی مقدمه کسی با شما تماس بگیرد و تقاضای پول کند، بعید است به حساب بانکی کسی که نمی‎شناسید، به آسانی پول واریز کنید. ولی اگر یکی از اعضای خانواده تان از طریق تماس تصویری همین درخواست را داشته باشد، چه؟! حتما نتیجه فرق خواهد کرد!

چگونه جعل عمیق را تشخیص دهیم؟

به سختی! با پیشرفت فناوری این کار سخت‎تر هم می‎شود. سال ۹۷ بود که پژوهشگران دریافتند چهره‎هایی که با جعل عمیق ساخته شده اند، پلک نمی‎زنند. اما این کشف، کاربردی در مورد تصاویر جعل عمیق ندارد. چون همیشه افراد با چشم باز عکس می‎گیرند. ولی درمورد ویدئوها راه حلی جادویی به نظر می‎رسید. اما با انتشار این یافته، بلافاصله جعل عمیق‎هایی ساخته شد که در آنها پلک زدن هم وجود داشت. این طبیعت بازی است. به محض پیداشدن یک ضعف، آن را برطرف می کنند. تشخیص جعل عمیق‎های با کیفیت پایین ساده‎تر است. ممکن است حرکت لب‎ها همگام نشده یا رنگ پوست ناهمگون باشد. همین‎طور صورت که جابه‎جا می‎شود و لرزش تصویر وجود داشته باشد. به ویژه جزئیات ریز مثل موها در جعل عمیق معمولا با کیفیت ساخته نمی‎شود. جواهرات، دندان‎ها، روشنایی نامناسب محیط و بازتاب نور در عنبیه چشم نیز می‎تواند سرنخی در این تشخیص باشد. دولت‎ها، دانشگاه‎ها و شرکت‎های فناوری همه به دنبال توانایی تشخیص جعل عمیق هستند. اولین مسابقه تشخیص جعل عمیق با حمایت شرکت‎هایی مثل مایکروسافت، فیسبوک و آمازون در سراسر جهان در حال برگزاری است.  با نزدیک شدن به انتخابات آمریکا، شبکه‎های مجازی، ویدئوهای جعل عمیقی را حذف می کنند که حاوی اطلاعات نادرست باشند. اما این سیاست شامل ویدئوهای جعل کم عمق (shallow fakes) نمی‎شود.

آیا جعل عمیق همیشه مخرب است؟

خیر! اتفاقا بسیار سرگرم کننده و مفید می‎تواند باشد. برای مثال در جعل عمیق صوتی، می‎توان صدای افرادی را برگرداند که به ‎دلیل بیماری صدای خود را از دست داده‎اند. ویدئوهای جعل عمیق به گالری‎ها و موزه‎ها روح تازه‎ای می‎بخشند. موزه سالوادور دالی در فلوریدا از نقاش سوررئالیست خود ویدئوی جعل عمیقی ساخته است که آثار خود را به بازدیدکنندگان معرفی و با آنها عکس سلفی می‎گیرد. در صنعت سرگرمی از این فناوری برای دوبله فیلم‎ها هم استفاده می‎شود. حتی این فناوری برای زنده کردن بازیگرانی که از دنیا رفته‎اند هم پیشنهاد می‎شود.

راه حل ما در برابر قابلیت های جعل عمیق چیست؟

از قضا هوش مصنوعی، راه حلی برای این فناوری در آستین دارد. در حال حاضر با کمک هوش مصنوعی می‎توان ویدئوهای جعلی را تشخیص داد. ولی این الگوریتم‎های تشخیص، ضعفی جدی دارند؛ زیرا جعل عمیق برای افراد مشهور که ساعت‎ها فیلم رایگان از آنها در دسترس است بهترین عملکرد را دارد. شرکت‎های فناوری تلاش می‎کنند محتوای جعلی را در هر جا که منتشر می‎شود، تشخیص دهند. استراتژی‎های دیگری هم وجود دارد. برای مثال استفاده از واترمارک دیجیتال که البته چندان هم بی‎خطر نیست. اما یک سیستم بلاک چین می‎تواند ویدئوها، تصاویر و صداهای جعلی و هر دستکاری را تشخیص دهد و نسخه اصلی آنها را پیدا کند.

ماجرای محتواهای جعل کم عمق از چه قرار است؟

فیلم‎های جعل کم عمق (shallow fakes) در بستری متفاوت ارائه می‎شوند و ابزارهای ویرایش ساده‎ای دارند. در این ویدئوها برای فریب مخاطب، سرعت پخش قسمتی از فیلم آهسته یا سریع می‎شود تا برداشت متفاوتی از فیلم را القا کند. گرچه برخی از این ویدئوها ناشیانه ساخته می‎شوند ولی تاثیر چشمگیری دارند.

جیم آکوستا، خبرنگار سی ان ان مجوز ورودش به کاخ سفید پس از تنش لفظی با دونالد ترامپ لغو شد. پس از آن فیلم جعل کم عمقی منتشر شد که نشان می‎داد در نشست خبری ترامپ، زمانی که کارمند کاخ سفید قصد داشته میکروفن را از آقای آکوستا بگیرد، وی رفتار تهاجمی داشته است. بعدا مشخص شد این فیلم درست در لحظه حساس سرعتش بیشتر شده و حرکت دست آکوستا تهاجمی جلوه داده شده است. پس از این اتفاق وی دوباره به کارش بازگشت.

چه با جعل عمیق و چه با جعل کم عمق این دردسرها روزبه‎روز بیشتر می‎شود و این فناوری نه‎تنها از بین نمی رود، بلکه کم کم جهان اطراف‎مان را غیرواقعی‎تر می کند.



روزنامه جام جم- شماره 5779- 22 مهر 1399

جعل عمیقهوش مصنوعیبیومتریکاخبار جعلی
علاقه‌مند به روزنامه‌نگاری علمی
شاید از این پست‌ها خوشتان بیاید