واقعی و فریبنده به نظر می رسند ولی توسط کامپیوتر ساخته شده اند : تصاویر جعلی عمیق (Deep Fake) توسط الگوریتم های یادگیری ماشین تولید می شوند و انسان ها تقریبا قادر به تشخیص آنها از عکس های واقعی و معتبر نیستند.
محققان انستیتو امنیت فناوری اطلاعات Horst Gortz و دانشگاه بوخوم روش جدیدی را برای شناسایی تصاویر جعلی عمیق ایجاد کرده اند. برای این منظور آنها دامنه فرکانسی اشیا را تجزیه و تحلیل می کنند روشی که شاخه ای از پردازش سیگنال محسوب می شود. این تیم حاصل کار خود را در کنفرانس بین المللی یادگیری ماشین (ICML) در ژوئیه 2020 ارائه داد.
ترکیب نتایج حاصل از دو الگوریتم در ایجاد تصاویر جدید
تصاویر جعلی عمیق – ترکیبی از اصطلاح "یادگیری عمیق" در یادگیری ماشین و واژه "جعلی" – با کمک مدل های رایانه ای تولید می شود که در اصطلاح، شبکه های خصمانه تولید (GAN) نامیده می شوند .در این شبکه ها دو الگوریتم در تعامل با هم کار می کنند : الگوریتم اول تصاویر تصادفی را بر اساس داده های ورودی ایجاد می کند و الگوریتم دوم بررسی می کند که آیا می تواند جعلی بودن تصویر ایجاد شده را تشخیص دهد. چنانچه الگوریتم دوم موفق به تشخیص جعلی بودن تصویر شد، دستور تجدید نظر در ساخت تصویر را به الگوریتم اول صادر می کند و این کار تا زمانی که نتواند جعلی بودن تصویر را تشخیص دهد ادامه می یابد.
در سال های اخیر این روش به اعتبار هرچه بیشتر تصاویر جعلی عمیق کمک نموده است. در وب سایت www.whichfaceisreal.com کاربران می توانند بررسی کنند که آیا قادر به تشخیص تصاویر تقلبی هستند. پرفسور تورستن هولز صاحب کرسی امنیت سیستم می گوید :" در عصر اخبار جعلی یک مشکل عمده، عدم توانایی کاربر در تشخیص تصاویر تولید شده توسط کامپیوتر از تصاویر واقعی است."
محققان مستقر در بخوم برای تجزیه و تحلیل خود از مجموعه داده هایی استفاده کردند که ضمنا اساس وب سایت فوق الذکر را تشکیل می دهد. در این پروژه بین رشته ای ، جوئل فرانک ، تورستن آیزنهاور و پروفسور تورستن هولز از کرسی امنیت سیستم با پروفسور آجا فیشر از کرسی یادگیری ماشین و همچنین لیا شنرر و پروفسور دورتا کولوسا از کرسی پردازش سیگنال دیجیتال همکاری کردند.
تحلیل فرکانس
تا به امروز ، تصاویر جعلی عمیق با استفاده از روشهای آماری پیچیده مورد تجزیه و تحلیل قرار می گرفتند. گروه تحقیقاتی بوخوم روش جدیدی را از طریق تبدیل تصاویر به دامنه فرکانسی با استفاده از روش تبدیل گسسته کسینوسی به کار گرفته اند. در نتیجه تصویر تولید شده توسط مجموعی از توابع کسینوسی مختلف نمایش داده می شود . تصاویر واقعی عمدتا از توابع با فرکانس پایین تشکیل شده اند.
تجزیه و تحلیل نشان داده است که تصاویر غیر واقعی تولید شده توسط GANها عموما از توابع با فرکانس بالا تشکیل شده اند.
جوئل فرانک از کرسی امنیت سیستم می گوید : " به عنوان مثال در نمایش فرکانس تصاویر جعلی یک ساختار شبکه ای ظاهر می شود. این امر یک مشکل ساختاری در تمام الگوریتم های یاگیری عمیق است . در واقع تصور می کنیم ظاهر شدن امثال چنین شبکه هایی به ما نشان می دهد که با یک تصویر جعلی عمیق که توسط یادگیری ماشین ایجاد شده است سر و کار داریم بنابراین تجزیه و تحلیل فرکانس یک روش موثر برای شناسایی خودکار تصاویر تولید شده توسط رایانه است" .