دیپ فیک چیست؟

دیپ فیک نام یک تکنیک نرم‌افزاری مبتنی بر هوش مصنوعی است که در محتوای صوتی و تصویری دست می‌برد و آن‌ را به شکل دلخواه تغییر می‌دهد و در نهایت محتوایی به دست می‌آید که کاملاً متفاوت از حقیقت است. دیپ فیک، ترکیب دو کلمه یادگیری عمیق(Deep Learning) و جعل(Fake) است که به خوبی عملکرد این تکنیک را تشریح می‌کند.

در واقع فناوری دیپ فیک برای ایجاد محتوای صوتی و تصویری متقاعد‌کننده و در‌عین‌حال غیرواقعی ساخته شده؛ یک فناوری که به‌سرعت در‌ حال‌ رشد و بهبود است و انتظار می‌رود روز‌به‌روز استفاده از آن گسترده‌تر شود. برنامه‌های ویرایش تصویر نظیر فتوشاپ، سال‌ها کاری مشابه را از طریق جعل کردن تصاویر انجام می‌دادند؛ اما چیزی که اکنون با آن رو‌به‌رو هستیم، مبحثی کاملاً متفاوت و نگران‌کننده‌تر از جعل عکس یک نفر در فتوشاپ است.

در دیپ فیک تلفیق تصاویر و فیلم‌های موجود با منبع مورد نظر ویدئویی به نحوی صورت می‌گیرد که گویی ترکیب هر دو تصویر یا هر دو فیلم یکی است و در یک صحنه رخ می‌دهد. این ترکیب پیچیده به عنوان مثال می‌تواند فرد یا افراد مختلف را به گفتن جملات و یا در حال انجام کارهایی نشان دهد که هرگز در واقعیت رخ نداده‌اند. فیلم‌های تولید شده از تکنیک دیپ فیک می‌تواند بدین شکل ایجاد گردند که حضور شخصی را در فیلم‌های غیراخلاقی نمایش دهند به طوری که هرگز فرد در آن فیلم حضور نداشته است. این ویدئوها حتی می‌توانند تصویر فرد را در رویدادهای سیاسی و مجرمانه از جمله صحنه‌های قتل، سرقت و غیره قرار دهند. پیش‌تر، کمتر کسی فکر می‌کرد که روزی بتوان محتوای یک ویدئو را به‌طور‌ کلی و بدون‌ دخالت مستقیم انسان تغییر داد؛ اما اکنون دیپ فیک ثابت کرده که چنین باوری در دنیای امروز جایی ندارد و به‌راحتی می‌توان ویدئو‌هایی تولید کرد که به سبب واقع‌گرایانه بودن، نتوان میان حقیقت یا دروغ بودن آن‌ها تمایزی قائل شد.

اما هولناک‌ترین بخش دیپ فیک در این آنجا است که امروزه قربانیان این تکنیک نه تنها شامل سلبریتی‌ها می‌شود بلکه سیاستمداران را نیز مورد هدف قرار داده است. این می‌تواند به معنای فریب طیف گسترده‌ای از مردم در شبکه‌های اجتماعی و گسترش عمیق پروپاگاندا در میان افراد جامعه تلقی شود. این مسئله وقتی وجهه‌ی ترسناک‌تری به خود می‌گیرد که متوجه می‌شویم نرم‌افزارهای دیپ فیک نه تنها به راحتی قابل دسترسی است، بلکه هر روز تشخیص تصاویر و ویدئوهای این تکنیک دشوار و دشوارتر می‌شود.

اصولاً نرم‌افزارهای دیپ فیک به منظور تخریب هویت فرد بکار می‌روند، این سناریوی کابوس‌واری است نه فقط برای از بین بردن زندگی شخصی شما، بلکه برای دست‌کاری ادراک عمومی در سران کشورها، مدیران ارشد یا نامزدهای سیاسی می‌تواند مورد استفاده قرار گیرد. دیپ فیک می‌تواند آینده یک کشور را از نظر سیاسی تحت تأثیر قرار دهد و این اتفاق، میزان خطرناکی تکنیک جعل تصویر را نشان می‌دهد. افراد می‌توانند با استفاده از این تکنولوژی از شخصیت‌های سیاسی در جهت خواست خود استفاده کرده و حرف‌ها و سخن‌های زیادی را به مخاطبین خود انتقال دهند. در این صورت تشخیص راست و دروغ برای بیننده و شنونده مشکل خواهد بود و او می‌تواند این ویدئوها را واقعی تلقی کرده و در نتیجه بر مبنای آن برای آینده سیاسی کشورشان تصمیم‌گیری کند.

دیپ فیک چگونه کار می کند؟

ویدیو دیپ فیک توسط دو سیستم هوش مصنوعی رقیب ایجاد می‌شود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی می‌سازد و از تفکیک کننده می‌پرسد که آیا ویدیو واقعی است یا نه. هر بار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی می‌دهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد. با بهبود تولید کننده در تولید کلیپ‌های ویدیویی، تفکیک کننده نیز در شناسایی آن‌ها بهتر می‌شود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آن‌ها بهتر می‌شود.

راه‌های مختلفی برای تولید دیپ فیک وجود دارد که پایه همه آن‌ها این است که باید حجم عظیمی از داده به مدل‌های یادگیری ماشین داده شود تا محتوای جعلی تولید گردد. واقع‌گرایانه‌ترین نمونه‌های دیپ فیک حجم عظیمی از داده‌های صوتی و تصویری را برای این کار مورد پردازش قرار داده‌اند.

اما پیشرفته‌ترین روش ساخت ویدیوهای دیپ فیک ، استفاده از پایگاه‌های عظیم داده است. در این روش هوش مصنوعی عضوهای صورت مانند چشم، بینی و دهان، چهره فرد را به خوبی شناسایی و تجزیه تحلیل کرده و بازسازی می‌کند. در واقع هوش مصنوعی تمام قسمت‌های متحرک صورت را اسکن کرده و حرکاتی مانند پلک زدن، حرکات دهان و… را زیر نظر می‌گیرد. بعد از اتمام این بررسی و تجزیه و تحلیل‌ها توسط هوش مصنوعی، این داده‌ها ذخیره می‌شود و در نهایت با ارائه چند عکس از سوژه، ویدئو جعلی مورد نظر ساخته می‌شود.

مزیت هوش مصنوعی این است که مانند انسان قابلیت یادگیری دارد و می‌تواند روز به روز بیشتر یاد گرفته و پیشرفت کند. در ساخت دیپ فیک در کنار هوش مصنوعی از شبکه عصبی نیز کمک گرفته می‌شود. در واقع هوش مصنوعی به تجزیه و تحلیل امور می‌پردازد و شبکه عصبی وظیفه یادگیری و بهبود را بر عهده دارد.

دیپ فیک تنها در مواردی که ذکر شد استفاده نمی‌شود و اپلیکیشنی مانند اسنپ‌چت نیز برای اعمال فیلتر‌های مبتنی‌بر چهره از چنین فناوری بهره می‌برد. همچنین اپلیکیشنی به نام FakeApp با استفاده از نرم‌افزار‌های متن‌باز گوگل، به کاربران اجازه می‌دهد تا چهره‌ی خود را به‌صورت واقع‌گرایانه‌ای با دیگران جا‌به‌جا کنند؛ آن‌ هم بدون‌ اینکه دست‌کاری‌ شدن ویدئو مشخص باشد. تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوسی بسیار سخت‌ بود. اما ظهور اپلیکیشن‌های این چنینی باعث شده‌اند که حتی افرادی که در حد انجام کارهای روزمره با کامپیوتر آشنایی دارند، بتوانند به‌راحتی شیوه‌ی کارکرد دیپ فیک را یاد بگیرند و از آن برای اهداف خود استفاده کنند. متأسفانه، این بدان معناست که هرکسی می‌تواند یک ویدیوی دیپ فیک برای ترویج موضوع مورد نظر خود تولید و منتشر کند. یکی از خطرات مرتبط با دیپ فیک این است که افراد ممکن است این ویدیوها را باور کنند و خطر دیگر آنجایی است که شاید دیگر نتوان به اعتبار هیچ ویدئویی اعتماد کرد.

احتمالاً اولین آشنایی بسیاری از ما با ویدئو‌های دیپ فیک، همان سخنرانی دروغین باراک اوباما، رئیس جمهور پیشین آمریکا بوده است. با‌این‌حال، اگرچه آن ویدئو یکی از اولین نمونه‌ها بوده؛ اما قطعاً آخرین مورد نبوده است. دو نمونه از برجسته‌ترین ویدئوهای تولید شده مبتنی بر این تکنیک را می‌توانید در اینجا و اینجا مشاهده کنید.

مقاله اختصاصی از سایت مفتا