Deep Fake چیست؟
فناوری دیپ فیک (جعل عمیق) چیست و چرا خطرناک است؟
امروزه مرزهای تکنولوژی و فناوری خیلی فراتر از آنچه تصور میشود، گسترده شده است. اگر در گذشته تنها ممکن بود عکستان توسط نرم افزارهای مختلف گرافیکی دستکاری شده و چیزی خلاف واقعیت را به بیننده نشان دهد، امروز با فناوری خطرناکتری روبهرو هستیم که میتواند چهره و صدای شما را به طرز شگفتآوری تقلید کرده و در قالب ویدیوهای غیرواقعی منتشر کند.
فناوری دیپ فیک یا «جعل عمیق» در سال 2014 برای اولین بار توسط یک دانشجوی مقطع دکترا به نام «ایان گودفلو» اختراع شد. گفتنی است گودفلو در حال حاضر در شرکت اپل مشغول به کار است.
دیپ فیک از ترکیب دو واژه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده است و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید و سنتز کند. در فناوری دیپ فیک یا همان جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکههای مولد تخاصمی» یا «Generative Adversarial Networks» استفاده میشود تا تصاویر یا ویدیوهای موجود روی مجموعهای از تصاویر و ویدیوهای منبع، ترکیب و برهمنهی شود.
دیپ فیک مبتنی بر روش یادگیری عمیق است و از شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN گفته میشود، استفاده میکند. الگوریتمهای GAN از دو مدل هوش مصنوعی تشکیل میشوند. در این سیستم وظیفه یکی از مدلها تولید محتوا (تولید تصاویر افراد) و وظیفه مدل رقیب، تشخیص واقعی بودن و یا جعلی بودن عکس تولید شده است. گفتنی است در ابتدای کار مدل هوش مصنوعی رقیب قادر است به راحتی عکس جعلی را از عکس واقعی تشخیص دهد اما با گذشت زمان دقت و عملکرد مدل هوش مصنوعی تولید کننده به قدری افزایش مییابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار سخت میشود.
ماه نوامبرِ سال ۲۰۲۰ میلادی است و درست چند روز تا آغاز رأیگیری انتخابات ریاستجمهوری ایالات متحده آمریکا فاصله داریم. مردم، خود را برای شرکت در انتخابات آماده میکنند که بهناگهان ویدئویی عجیب و بهتآور در سراسر اینترنت منتشر میشود. همه درنهایت بهت و حیرت، نامزد پرسروصدا و احتمالاً محبوبشان را مشاهده میکنند که از تشخیص سرطان بدخیم توسط پزشکانش خبر میدهد؛ «من برای رهبری بیشازاندازه ناتوان و بیمار هستم؛ لطفاً به من رأی ندهید.»
هیچکس نمیداند که چه بلایی بر سرِ آینده کشور خواهد آمد. درحالیکه گمانهزنیها درباره بیماری آقای رئیسجمهورِ احتمالی شروع شده، خبری دیگر در رسانههای اجتماعی مثل بمب صدا میکند که بهمراتب از خبر پیشین شوکهکنندهتر است.
اینطور که بهنظر میرسد، یک ملت بازیچهی دستِ یکسری افرادِ ناشناس شدهاند؛ بله درست حدس زدهاید، هیچ سرطانی در کار نبوده و تمامِ اتفاقاتِ ویدئو موردبحث، بهصورت مصنوعی و توسط هوش مصنوعی درست شده است. عدهای همچنان در شوک قرار دارند و نمیتوانند اتفاقاتِ روزهای گذشته را هضم کنند؛ درحالیکه گروهی دیگر از مردم، چنین خبری را تغییر نظر سریع آقا یا خانم نامزد بهحساب میآورند.
برداشتها هرچه که باشد، دیگر کار از کار گذشته و سرنوشت یک کشور، یا بهتر است بگوییم سرنوشت یک جهان در مسیرِ دیگری قرار گرفته است.
سناریوی بالا اگرچه درظاهر تخیلی بهنظر میرسد، اما باوجود پدیدهای جدید بهنام دیپفیک، میتوان بهوقوعپوستنِ این تخیل را در دنیای واقعی متصور شد.
چرا فناوری دیپ فیک خطرناک است؟
فناوری دیپ فیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نه تنها جامعه بازیگران و سلبریتیها را هدف گرفته بلکه به حریم چهرههای بزرگ سیاستمدار نیز تجاوز کرده است. به عنوان مثال چندی پیش ویدیویی از باراک اوباما منتشر شد که در آن دونالد ترامپ را فردی حقیر و غیرمنطقی خطاب میکرد. اگرچه این ویدیو صحت نداشت و کاملا غیرواقعی بود اما افراد زیادی در ابتدا آن را باورد کردند و دست به انتشار آن در فضای مجازی کردند. در همین راستا رئیس جمهور سابق آمریکا، باراک اوباما، در خصوص تکنولوژی دیپ فیک اظهار نظر کرده و ابراز کرده است در دنیایی که میتوانند به سادگی صحبتها و ویدیوهای غیرواقعی از من ساخته و منتشر کنند، به مرحلهای خواهیم رسید که تشخیص مرز بین واقعیت و دروغ بسیار مشکل خواهد شد و این مطمئنا بر پایههای دموکراسی ما که بر مبنای حقیقت است، تاثیر خواهد گذاشت.
در حقیقت از آنجا که این فناوری بر مبنای هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد، هر فردی میتواند از طریق دیپ فیک، ویدیوی جعلی و در عین حال واقعگرایانه تولید کند. در نتیجه متاسفانه افراد با اهداف خصمانه میتوانند فیلمهای غیراخلاقی از چهرههای مشهور تهیه و تولید کنند و زندگی شخصی آنها را به راحتی به خطر بیندازند. گفتنی است این فناوری سبب کسب درآمد نیز شده است و افراد بسیاری در انجمنهای اینترنتی مختلفی وجود دارند که حاضرند برای ساخت یک ویدیوی دیپ فیک و غیراخلاقی از فرد موردنظرشان پول زیادی پرداخت کنند.
علاوه بر ایجاد محتوای غیراخلاقی از افراد مختلف، دیپ فیک میتواند واقعیات جامعه را تحریف کرده و اطلاعات نادرست و غیرواقعی به افراد جامعه ارائه کند. در نتیجه حریم خصوصی افراد به راحتی مورد هدف قرار گرفته و دموکراسی و امنیت ملی یک کشور نیز به خطر میافتد.
نمونه ویدئو با دیپ فیک
سرنوشت نرم افزار دیپ فیک Zao که ویدیوی جعلی میساخت
اپلیکیشن چینی Zao که چندی پیش به عنوان یکی از پرسروصداترین اپها شناخته میشد، قادر است در کسری از ثانیه با دریافت چند عکس از کاربر، چهره او را به سلبریتی موردعلاقهاش تبدیل کند. اما پس از چندی کاربران بسیاری به سرعت موجی از نارضایتی خود را در خصوص نقض حریم خصوصی خود اعلام کردند و حال این نرم افزار، سیاستهای خود را بعد از واکنش جدی و بازخوردهایی که از سوی کاربران دریافت کرده، تغییر داده است.
این اپلیکیشن قادر است با استفاده از هوش مصنوعی، تصویر چهره کاربر را روی چهره یک شخص دیگر گذاشته و در قالب یک فایل گیف (GIF) و یا حتی ویدیو آن را به نمایش درآورد. نرم افزار دیپ فیک Zao یک اپلیکیشن رایگان است و به عنوان یکی از پرطرفدارترین برنامههای موجود در اپ استور شناخته میشود. نحوه نصب و استفاده از این برنامه بسیار ساده و آسان است. کافی است پس از نصب، شماره موبایل خود را وارد کرده و سپس تعدادی از عکسهای موجود در گوشی خود را روی برنامه بارگذاری کنید. حال میتوانید ویدیوهای سلبریتیهای مختلف از دی کاپریو گرفته تا مارلین مونرو، یکی را انتخاب کنید تا اپلیکیشن چهره شما را روی تصویر سلبریتی موردعلاقهتان برهمگذاری کند.
اما منبع خبری رویترز گزارش میکند که کاربران بسیاری پس از اینکه متوجه شدند با بارگذاری تصویر خود در Zao، این اجازه را به اپلیکیشن میدهند که از تصاویر آنها برای اهداف بازاریابی و تجارت خود استفاده کند، بسیار شاکی شدند و آن را نقض حریم خصوصی خود میدانند. درواقع اپلیکیشن Zao با استفاده از فناوری دیپ فیک قادر است در عرض چند ثانیه به طرز ماهرانهای چهره کاربران را با تصاویر دیگر بازیگران جابهجا کند، این در حالی است که در نسخه قبلی این برنامه، عکسهای کاربران برای همیشه در مالکیت توسعهدهندگان این برنامه قرار میگرفت و سازنده اپ میتوانست بدون هیچ محدودیتی آنها را در اختیار شرکتهای دیگر قرار دهد. اما پس از اعلام نارضایتی کاربران و حاشیهای که پیرامون این نرم افزار پیش آمد، توسعهدهندگان این اپلیکیشن مجبور شدند که تمام عکسهای قبلی کاربران را از سرورهای خود حذف کنند. سازندگان این نرم افزار طی بیانیهای اعلام کردند که یکسری نگرانی در خصوص نقض حریم شخصی کاربران ایجاد شده بود که در همین راستا بند استفاده آزادانه از عکسهای کاربران را از Zao حذف کردیم.
و در آخر با توضیحات مختصر بنده در این باره همراه باشید.
مطلبی دیگر از این انتشارات
چگونه از متدولوژی اجایل - اسکرام برای ایجاد یک محصول نرم افزاری استفاده کنیم ؟
مطلبی دیگر از این انتشارات
دیجیتال مارکتینگ و مفاهیم پایه گوگل ادز
مطلبی دیگر از این انتشارات
آموزش Sass