omid akhgary
omid akhgary
خواندن ۶ دقیقه·۴ سال پیش

جعل عمیق (Deep Fake) و چالش های آن

deepfake
deepfake
  • مقدمه

تا قبل از دسامبر سال 2017 شاید مفهومی به اسم "جعل عمیق" یا به اصلاح (Deep Fake) کاملا ناشناخته بود، تا اینکه درست در همین زمان یک کاربر به نام "Deep Fakes" ویدیوهایی به نظر واقعی از افراد مشهور را در رسانه Reddit ارسال کرد. او این فیلم‌های جعلی را با استفاده از یادگیری عمیق(deep learning)، جدیدترین تکنولوژی هوش مصنوعی، به منظور قرار دادن چهره‌های افراد مشهور در فیلم‌های سینمایی تولید کرد.

در هفته‌های بعدی اینترنت با مقالاتی در مورد خطرات ناشی از فناوری تعویض چهره منفجر شد.

  • "جعل عمیق" چگونه ساخته شد؟

همانطور که اشاره شد این نام در حقیقت نام کاربری یک کاربر در سایت Reddit بوده که نشات گرفته از deep learning (یادگیری عمیق) می‌باشد و زیر مجموعه ای از تکنولوژی machine learning (یادگیری ماشینی) که از لایه‌هایی از شبکه‌های عصبی مصنوعی به منظور آموزش کامپیوتر برای انجام یک کار استفاده می‌شود.

برای تولید ویدیو با استفاده از "جعل عمیق"، به اصطلاح (deep fake video)، به طور کلی تعدادی عکس با کیفیت بالا از صورت شخص مورد هدف به برنامه داده می‌شود و سپس به شکل متناظر با صورت شخص دیگری در فیلم تعویض می‌شود.

همچنین "جعل عمیق" صوتی یا به اصطلاح (deep fake audio)، تنها نیاز به یک ضبط معمولی برای یادگیری با استفاده از کامپیوتر، به شکلی که بتواند شبیه فرد خاصی صحبت کند، تولید می‌شود. طبق همین روش می‌توان متن جعلی هم تولید کرد.

ویدیو ‌هایی که با سرعت آهسته یا سرعت بالا برای فریب افراد ویرایش می‌شوند معمولا به عنوان "جعل عمیق" به حساب نمی‌آیند و گاها این دست از فیلم‌ها را جعل کم عمق(shallow fake) می‌نامند.

  • چگونه "جعل عمیق" مورد استفاده قرار می‌گیرد؟

یک شرکت واقع در آمستردام که به نظارت و تشخیص محتوای "جعل عمیق" می‌پردازد، طبق گزارش نتایج تحقیقات خود در ماه سپتامبر عنوان کرد که 96 درصد از محتوای "جعل عمیق" متعلق به دستکاری محتوای مستهجن است. به شکلی که صورت افراد دیگری به جای صورت بازیگران این فیلم‌ها قرار داده می‌شوند.

  • محتوای "جعل عمیق" چه نگرانی‌هایی را در بر دارد؟

عمدتا ترس افراد ممکن است ناشی از این امر باشد که "جعل عمیق" می‌تواند به شکل ناروا، شهرت و اعتبار افراد را تخریب کند و عواقبی از جمله ایجاد سلطه بر روی نتایج انتخابات و یا بالا بردن قیمت سهام به شکلی تصنعی که باعث ایجاد نا آرامی ‌در بازار بورس می‌گردد را داشته باشد. عمدتا افراد مشهور و به‌ویژه سیاستمداران و رهبران مشاغل در معرض این دست از خطرات هستند.

متاسفانه هنگامی‌که یک ویدیوی نامربوط در اینترنت ارسال می‌شود، جلوگیری از ترویج آن تقریبا غیر‌ممکن است.

همچنین نگرانی از عدم آگاهی از جعلیات مربوط به "جعل عمیق" و تشخیص و تمییز آن از حقیقت مزید بر علت می‌گردد.

وجود "جعل عمیق" همچنین می‌تواند تسهیلاتی را برای افراد صادقی که دچار مشکل شده اند ایجاد کند. مثلا به عنوان مدرکی برای اثبات ادعای مبنی بر رد اتهام ناروای شخص دیگری نسبت به خود مورد استفاده قرار دهد.

  • با توجه به مواردی که پیش از این ذکر شد ، "جعل عمیق" تاثیراتی را در شبکه‌های اجتماعی نیز به همراه دارد. به عنوان مثال:

طبق اعلام فیسبوک اگر محتوای مطلبی حاوی دو شاخصه زیر باشد "جعل عمیق" شناخته شده و حذف خواهد شد:

  1. محتوای قرار داده شده به شکلی ترکیب و یا ویرایش شده باشد که واضح و با کیفیت مناسب نباشند و احتمال بروز سو ظن را در افراد دیگر ایجاد کند. به این شکل که کلماتی در آن محتوا قرار داده شده باشد، در صورتی که در واقع آن فرد آن کلمات را عنوان نکرده باشد.
  2. مورد دوم به این موضوع اشاره می‌کند که محتوای قرار داده شده توسط هوش مصنوعی یا یادگیری ماشین ساخته شده است و به نظر می‌رسد معتبر است در صورتی که اینطور نیست.
  • تولید محتوای "جعل عمیق" برای چه افراد دیگری جذاب است؟

محققان و شرکت‌های مختلفی بر روی گسترش و پیشرفت فناوری "جعل عمیق" کار می‌کنند.

محققان دانشگاه کارنگی ملون آمریکا سامانه‌ای را طراحی کرده‌اند که قادر است ویژگی‌هایی از جمله چهره فردی را از ویدیوی یک فرد به تصویر تلفیقی از فرد دیگری منتقل کند.

شرکت Baidu چین و چند استارت آپ دیگر نیز یک سیستم تبدیل متن به صدا (voice cloning ) ارائه دادند که می‌تواند به عنوان یک رابط کاربری بین انسان و ماشین عمل کند.

"جعل عمیق" معضلات اخلاقی ای را برای محققان ایجاد کرده است. به این دلیل که آنها در تلاشند تا روش‌هایی برای بهبود و دستیابی بیشتر به فناوری‌ای را پیدا کنند که در درجه اول برای اهداف مخرب استفاده می‌شود.

یکی از توجیهاتی که عنوان می‌شود این است که فناوری به هر حال در نهایت نشت پیدا خواهد کرد؛ دیگر اینکه می‌توان از همین فناوری برای تشخیص خود "جعل عمیق" استفاده کرد.

  • چگونه "جعل عمیق" قابل تشخیص است؟

همانطور که ابتدا اشاره شد یادگیری ماشینی (machine learning) یکی از فناوری‌های هوش مصنوعی محسوب شود. حال اینکه می‌توان از یادگیری ماشینی برای شناسایی و تشخیص حرکات سر و دست در محتوای "جعل عمیق" که برای افراد واقعی نیستند استفاده کرد. همچنین می‌توان الگوریتم‌هایی را برای شناسایی تغییرات در الگوهای به کار برده شده از فرآیند ضبط، آموزش داد.

وزارت دفاع آمریکا و همچنین گوگل و فیس‌بوک، مجموعه داده‌هایی را برای كمك به پژوهشگران در زمینه کار و گسترش راه حل‌ها ارائه می‌دهند.

  • آیا استفاده‌های خیرخواهانه ای از "جعل عمیق" وجود دارد؟

جواب بله است :)

نمونه‌های از این موارد به شرح زیر است:

  1. شرکت اسکاتلندی CereProc یک صدای دیجیتالی را برای یک گوینده رادیو که به دلیل وضعیت پزشکی صدای خود را از دست داده بود ایجاد کرد که دوباره بتواند صدا خودش را بشنود. تکنولوژی vocal cloning با بازآفرینی صدای چهره‌های تاریخی می‌تواند به عنوان خدمت آموزشی تلقی شود.
  2. یا اینکه شرکت CereProc توانست نسخه‌ای از آخرین آدرس نوشته شده توسط رئیس جمهور جان‌اف‌کندی، که قبل از تحویل آن ترور شده بود را، ایجاد کند.
  3. نمونه‌ی دیگر اینکه یک شرکت انگلیسی با استفاده از "جعل عمیق"، یک ویدیو تولید کرده که در آن دیوید بکهام اسطوره فوتبال انگلیسی با 9 زبان متفاوت صحبت می‌کند و خواستار تلاش برای پایان دادن بیماری مالاریا است.
  4. همچنین "جعل عمیق" کاربردهای بالقوه‌ای برای سرگرمی‌دارد؛ مانند ویدئو‌هایی در YouTube که نیکلاس کیج را در نقش‌های مختلف فیلم و تلویزیون قرار داده است.

منابع:

- bloomberge.com:

How Deepfakes Make Disinformation More Real Than Ever.

- Medium.com:

Exploring DeepFakes.

artifial intelligencedeep fakemachine learningdeep learning
شاید از این پست‌ها خوشتان بیاید