من علیرضا طباطبایی وکیل پایه یک با همکاری جمعی از وکلا، مهندسان کامپیوتر و کارشناسان جرائم رایانه ای در سال ۹۳ گروه حقوقی تخصصی وکیل سایبری را تاسیس کردم. اینجا مطالب روز دانش حقوقی جهان را دنبال کنید
خبرنامه وکیل سایبری(17 خرداد)
بسمه تعالی
خبرنامه وکیل سایبری
آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.
این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.
17 خرداد 1402
خبر اول:
همه چیز درباره دیپ فیک
بر اساس مطالعه ی انجام شده، 71 درصد از پاسخ دهندگان در سراسر جهان نمی دانند که دیپ فیک چیست، و 43 درصد هم قادر به تشخیص آن نیستند. ولی، این فناوری به طور فزاینده ای پیچیده و در دسترس می باشد و امکان استفاده مجرمان سایبری از صداها و چهره ها را برای جعل هویت و تولید محتوای مخرب افزایش داده است.
دیپ فیک چیست؟
این اصطلاح برگرفته از ترکیب مفاهیم "یادگیری عمیق" و "جعلی" می باشد که به محتوای جعلی تولید شده با یادگیری عمیق (AI) اشاره دارد.
در واقع به یک تکنیک جعل اشاره دارد که از یک تکنیک هوش مصنوعی پیشرفته استفاده میکند، دادههای مربوط به حرکات فیزیکی، ویژگیهای صورت و حتی صدا را جمعآوری میکند و آنها را از طریق یک الگوریتم رمزگذاری هوش مصنوعی یا یک شبکه مولد تخاصمی(GAN) پردازش میکند تا تصاویر سمعی و بصری، محتوای گرافیکی یا صوتی جعلی اما کاملا واقعی ایجاد کند.
به عبارت دیگر، یک ویدیو، تصویر یا صدای ایجاد شده با هوش مصنوعی می باشد که از ظاهر و/یا صدای یک شخص (رسانه مصنوعی) تقلید می کند. در میان محبوب ترین ویدیوهای دیپ فیک، ویدیوها شامل ویدیوهای کاربر DeepTomCruise در TikTok می باشد.
این فناوری، فناوری کاملاً جدیدی نمی باشد. در واقع، سالهاست که در استودیوهای فیلمسازی هالیوود از آن استفاده میشود. با اینکه فیسبوک در سال 2020 دیپ فیک را ممنوع کرد اما اکنون از طریق برنامههای تجاری در دسترس بسیاری از مردم قرار گرفته که موجب افزایش حجم چنین محتوایی در وب شده است.
چرا دیپ فیک می تواند تهدیدی برای امنیت دیجیتال و اطلاعات باشد؟
مشکل در دیپ فیکها (تولید محتوا با استفاده از هوش مصنوعی) نیست، بلکه مشکل در نحوه استفاده از آن ها می باشد. بر اساس گزارش اخیر از سازمان پلیس اروپا (Europol) هشدار داده شده که بیشتر دیپ فیکهای منتشر شده دارای نیت مخرب هستند. برخی از سوءاستفادههایی که از این فناوری میتواند انجام شود، شامل موارد زیر می باشد:
· نقض ماهیت اخلاقی افراد (مثلاً ساخت ویدیو پورنوگرافی).
· دستکاری تصاویر و صداها برای دور زدن رمزهای عبور بیومتریک.
· تقلب در پلتفرم های دیجیتال
· انتشار اخبار جعلی و اطلاعات نادرست که حتی می تواند بازارهای مالی را مختل کند و روابط بین المللی را متزلزل نماید.
· سرقت هویت.
· اخاذی (تهدید شخص به توزیع محتوای نادرست دردسرساز).
با ارزانتر شدن فناوری، ممکن است تعداد تخلفات افزایش یابد. بنابراین باید دیپ فیک ها را بشناسید و آماده باشید.
چگونه دیپ فیک را تشخیص دهیم؟
تشخیص دیپ فیک روز به روز سخت تر می شود. بر اساس، یک مطالعه منتشر شده، "چهره هایی که به صورت مصنوعی تولید می شوند نه تنها عکس واقع گرایانه هستند، بلکه تقریباً از نمونه واقعی قابل تشخیص نیستند و قابل اعتمادتر بنظر می رسند". ولی با این همه، تشخیص غیر ممکن نیست. جزئیاتی وجود دارد که می توان به آنها توجه کرد:
تعداد فلش ها (برقزدگیها)
با توجه به تعداد دفعاتی که تصویر در ویدیو چشمک میزند، میتوانیم بفهمیم آیا شخصیت در ویدیو واقعی می باشد یا دیپ فیک، زیرا دیپ فیکها به طور کلی کمتر از افراد واقعی این کار را انجام میدهند و گاهی اوقات به صورت مصنوعی یا غیرطبیعی این کار را انجام میدهند.
صورت و بدن
جعل کل شخصیت یک فرد مستلزم کار بسیار زیادی می باشد، بنابراین اکثر دیپ فیک ها به جایگزینی چهره محدود می شوند. در نتیجه، یکی از راههای تشخیص جعل، شناسایی ناهماهنگیهای بین تناسب بدن و صورت، یا بین حالات صورت و حرکات یا حالتهای بدن می باشد.
طول ویدیو
یک فرایند جعلی با کیفیت به چندین ساعت کار و آموزش الگوریتم نیاز دارد، بنابراین ویدیوهای جعلی معمولاً فقط چند ثانیه طول می کشند.
صدای ویدئو
نرم افزار برای ایجاد صوت های تقلبی وجود دارد، اما اغلب به تغییر چهره محدود می شود. اگر ویدیو صدا ندارد یا صدایی دارد که با تصویر ، به خصوص در مورد حرکت لب مطابقت ندارد، بهتر است مشکوک شوید.
داخل دهان
فناوری ایجاد دیپ فیک در بازتولید زبان، دندان ها و حفره دهان در هنگام صحبت کردن فرد خیلی ماهرانه عمل نمی کند. بنابراین وجود ابهامات یا تاری های داخل دهان نشان دهنده یک تصویر جعلی می باشد.
سایر جزئیات
جزئیات نقطه ضعف نرم افزار دیپ فیک می باشد. بنابراین، میتوانیم آنها را با تمرکز بر جنبههای کوچک مانند سایههای کمرنگ در اطراف چشم، مو، ریش یا سیبیل غیرواقعی صورت، پوست بیش از حد صاف یا چروکیده، خالهای ساختگی و رنگ غیرطبیعی لب تشخیص دهیم.
در دیپ فیکها، به دلیل عدم توانایی کامل در بازسازی واقعیت جزئیات، این نشانهها میتوانند مشاهده شوند. با توجه به وجود سایهها و ویژگیهای غیرطبیعی در تصویر، میتوان به راحتی متوجه شد که تصویر دیپ فیک می باشد. با این حال، همچنان نیاز به بررسی و تحلیل دقیقتر جزئیات داریم.
استفاده از تکنولوژی
در فرآیندهایی که نیاز به تأیید دقیقتری دارند، میتوان از نرمافزار تشخیص دیپ فیک یا سیستمهای تشخیص زندگی آنلاین (مثلاً گرفتن سلفی) استفاده کرد. به این ترتیب خطر موجود تا حد زیادی کاهش می یابد.
در پایان، افراد باید مراقب محتوای مشکوک باشند و به طور دقیق یاد بگیرند که چگونه دیپ فیکها را تشخیص دهند. افزایش آگاهی و آموزش درباره روشهای تشخیص دیپ فیکها برای افراد بسیار اهمیت دارد. با اینکه ابزارها و تکنیکهای تشخیص دیپ فیکها در حال پیشرفت هستند، اما برای مقابله موثر با این تهدید، نیاز به افزایش آگاهی عمومی و آموزش افراد در این زمینه وجود دارد. آشنایی با ویژگیها و نشانههای مربوط به دیپ فیکها، ارتقای قدرت قضاوت و انجام بررسی دقیق در مورد محتواهای مشکوک میتواند کمک شایانی به شناسایی و جلوگیری از گسترش دیپ فیکها نماید.
منبع خبر : telefonica
خبر دوم:
رئیس جمهور روسیه در چنگال دیپ فیک
در ابتدا، گزارشها حاکی از آن بود که فقط پیامهای رادیویی تحت تأثیر قرار گرفتهاند. اما در بررسی ها مشخص شد که این پیغام های کلاهبردارانه در صفحه تلویزیون هم نمایش داده شده اند.
در جریان این حمله سایبری، یک هکر برنامه های رادیویی و تلویزیونی را به خطر انداخته و پیام ساختگی رئیس جمهور روسیه یعنی پوتین را مخابره کرده است.
چندین منطقه در روسیه قربانی یک حمله سایبری پیچیده شدند، زیرا فعلا هکرهای ناشناس موفق شده اند که پخش های رادیویی و تلویزیونی را در معرض خطر قرار دهند و پیامی ساختگی از سوی رئیس جمهور پوتین را مخابره کنند. در این اعلامیه بهتصمیم ادعایی برای اعلام حکومت نظامی در مناطق مرزی روسیه و قصد رئیس جمهور برای امضای فرمان بسیج عمومی اشاره شده است.
زمانبندی این حمله، تنشهای موجود درباره احتمال حمله نظامی از سوی اوکراین را به چالش کشید و نیروهای نظامی روسیه، مقامات و شهروندان را نگران و مضطرب کرد. با بهرهبرداری از این فضای، هکرها با موفقیت سخنرانی جعلی رئیس جمهور را در شهرهای روستوف، بلگورود و وورونژ، که مستقیماً مجاورت با اوکراین دارند، پخش کردند.
این سخنرانی ساختگی به دروغ خبر از بسیج عمومی در مناطق مرزی اوکراین را میداد و وضعیت پرتنش را تشدید میکرد.
در واکنش به این حادثه، سخنگوی مطبوعاتی پوتین، تایید کرد که حداقل یک ایستگاه رادیویی هک شده است. وی به صراحت اعلام کرد که رئیس جمهور چنین پیامی را نداده و تاکید کرد که این پیغام کاملا ساختگی می باشد.
دستکاری صدای یک فرد فرایندی ست که با پیشرفت های تکنولوژیکی اخیر به طور فزاینده ای امکان پذیر شده است. ولی، ایجاد دیپ فیک ویدیویی قانع کننده چالش های مهم تری را ایجاد می کند.
منبع خبر : hackread
خبر سوم:
آسیبپذیری MOVEit و حادثه اخاذی دادههای Zellis
چه اتفاقی افتاده است؟
مجرمان از یک آسیب پذیری در برنامه انتقال فایل MOVEit Progress Software که توسط هزاران سازمان در سراسر جهان استفاده می شود، سوء استفاده کرده اند.
در نتیجه ، ارائهدهنده خدمات پشتیبانی حقوق و دستمزد Zellis بخاطر سرقت دادههای مشتریانش دچار نقض داده ای شده است.
چه کسانی تحت تأثیر قرار گرفته اند؟
اطلاعات سرقت شده مربوط به کارمندان هشت مشتری Zellis از جمله BBC، Boots و British Airways می باشد.
سایر سازمانهای غیر بریتانیایی از جمله Aer Lingus هم تحت تأثیر قرار گرفتهاند. باز هم، اطلاعات سرقت شده مربوط به کارمندان این سازمان ها می باشد.
منبع خبر : ncsc
خبر چهارم:
هوش مصنوعی دستاوردی جدید در جنگ علیه جرم سایبری
همه فناوریهای جدید فرصتهایی را برای مجرمان ایجاد میکنند و رقابتی دائمی برای پیشی گرفتن از جدیدترین تهدیدات بوجود می آید.
سال 2023 سالی ست که هوش مصنوعی (AI) به جریان اصلی تبدیل می شود. هیچ کس نمی تواند متوجه پیشرفت های سریع در پیچیدگی هوش مصنوعی و یادگیری ماشینی نشده باشد. برخی از سیستمهای هوش مصنوعی بسیار قدرتمند و مبتنی بر مدلهای زبانی بزرگ (LLM)، مانند ChatGPT، اکنون برای استفاده بدون نیاز به دانش تخصصی طراحی و برای عموم منتشر شدهاند و دارای نتایج قابلتوجهی می باشند. اما فرصتهایی که نرمافزار در اختیار مجرمان سایبری قرار میدهد بسیار کمتر مورد توجه قرار میگیرد.
مدل های زبانی LLM علاوه بر ایجاد متون متقاعدکننده شبیه انسان، می توانند کدهای کامپیوتری را هم تولید کنند. یعنی می توان از آنها برای تولید بدافزار (نرم افزار مخربی که توسط مجرمان سایبری استفاده می شود) استفاده کرد.
بدافزار پیشرفته
یکی از شرکت های امنیت سایبری گزارشی منتشر کرده که نشان می دهد چگونه از LLM ها به طور بالقوه می توان برای کمک به ایجاد بدافزار پیشرفته استفاده کرد که می تواند براحتی اقدامات امنیتی را دور بزند. محققان توانستند از فیلترهای محتوایی که برای جلوگیری از تولید بدافزار طراحی شده بودند، عبور کنند. از آن زمان به بعد گزارشهای بیشتری مبنی بر استفاده از LLM برای تولید بدافزار (البته با درجات موفقیت متفاوت) گزارش شده است.
پیامدهای ناشی از این مسئله قابل توجه می باشد. مجرمان سایبری ممکن است در حال حاضر از LLM برای کمک به ایجاد بدافزار قدرتمندتر استفاده کنند که تشخیص آن سخت تر باشد، به راحتی از دفاع های امنیتی سایبری سنتی عبور و آسیب بیشتری وارد کند.
دموکراتیزه شدن جرایم سایبری
تکنولوژی مدلهای زبانی بزرگ(LLM) برای هر فردی که تمایل استفاده از آن را داشته باشد در دسترس می باشد. این مسئله ممکن است منجر به دسترسی آسانتر به ابزارها و تکنیکهای مرتبط با جرم سایبری مثلاتولید نرمافزارهای مخرب شود. به طور کلی، با اینکه در حال حاضر استفاده از این تکنولوژی بیشتر توسط جنایتکاران سایبری حرفهای صورت میگیرد، اما در آینده ممکن است این تکنولوژی برای مبتدیان هم قابل دسترس باشد و در نتیجه دموکراتیزه شدن (افزایش دسترسی عمومی) بیشتر جرم سایبری اتفاق بیافتد.
اما این فناوری فقط از نظر پیچیدگی خروجی و کاربر پسند بودن به سرعت پیشرفت می کند. نه تنها مجرمان سایبری موجود از LLM برای نوشتن بدافزارهایی استفاده میکنند که در حال حاضر فراتر از تواناییهای خودشان می باشد، بلکه سهولت استفاده از آن ممکن است افراد بیشتری را وسوسه کند تا برای اولین بار جرایم سایبری را تجربه کنند.
فیشینگ و مبارزه با جرایم سایبری
به غیر از بدافزارها، LLM ممکن است به مجرمان کمک کند تا ایمیلهای فیشینگ قانعکنندهتری طراحی کنند، از اشتباهات املایی و دستوری و ناهماهنگی که در حال حاضر به عنوان هشدارهای مفید عمل میکنند، اجتناب کنند و به طور بالقوه موانع زبانی را از بین ببرند. کارمندانی که به تازگی در معرض خطر فیشینگ هستند، برای شناسایی تله های پیچیده به کمک بیشتری نیاز دارند. در حال حاضر گزارشهایی مبنی بر استفاده از سیستمهای هوش مصنوعی برای تولید صداهای تقلبی واقعی وجود دارد که قادر به فریب دادن سیستمهای شناسایی صوتی مورد استفاده موسسات مالی یا متقاعد کردن مردم برای ارسال پول برای کلاهبردارانی هستند که در نقش بستگان مضطرب و در معرض خطر ظاهر می شوند.
خبر خوب این است که هوش مصنوعی می تواند در مبارزه با جرایم سایبری نیز استفاده شود. توانایی آن در تجزیه و تحلیل مقادیر عظیمی از داده ها و خودآموزی می تواند به متخصصان امنیت اطلاعات کمک کند تا همیشه جلوتر از تهدیدات باشند و برنامه های کاربردی ایمن تری را توسعه دهند. توسعه دهندگان LLM همچنین برای جلوگیری از سوء استفاده از محصولاتشان، اقدامات حفاظتی ایجاد می کنند که بدون شک با شناسایی و بسته شدن حفره های موجود، این موارد قوی تر می شوند.
ما در مراحل ابتدایی انقلاب هوش مصنوعی هستیم و سرعت تغییرات در حال افزایش می باشد. بنابراین هیچ چیز مهمتر از این نیست که اقداماتی را برای محافظت از کسب و کار خود در برابر حمله انجام دهیم.
منبع خبر : lexology
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (20 تیر)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (3 مرداد)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (7 اردیبهشت)