خبرنامه وکیل سایبری(17 خرداد)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

17 خرداد 1402




خبر اول:

همه چیز درباره دیپ فیک

بر اساس مطالعه ی انجام شده، 71 درصد از پاسخ دهندگان در سراسر جهان نمی دانند که دیپ فیک چیست، و 43 درصد هم قادر به تشخیص آن نیستند. ولی، این فناوری به طور فزاینده ای پیچیده و در دسترس می باشد و امکان استفاده مجرمان سایبری از صداها و چهره ها را برای جعل هویت و تولید محتوای مخرب افزایش داده است.

دیپ فیک چیست؟

این اصطلاح برگرفته از ترکیب مفاهیم "یادگیری عمیق" و "جعلی" می باشد که به محتوای جعلی تولید شده با یادگیری عمیق (AI) اشاره دارد.

در واقع به یک تکنیک جعل اشاره دارد که از یک تکنیک هوش مصنوعی پیشرفته استفاده می‌کند، داده‌های مربوط به حرکات فیزیکی، ویژگی‌های صورت و حتی صدا را جمع‌آوری می‌کند و آن‌ها را از طریق یک الگوریتم رمزگذاری هوش مصنوعی یا یک شبکه مولد تخاصمی(GAN) پردازش می‌کند تا تصاویر سمعی و بصری، محتوای گرافیکی یا صوتی جعلی اما کاملا واقعی ایجاد کند.

به عبارت دیگر، یک ویدیو، تصویر یا صدای ایجاد شده با هوش مصنوعی می باشد که از ظاهر و/یا صدای یک شخص (رسانه مصنوعی) تقلید می کند. در میان محبوب ترین ویدیوهای دیپ فیک، ویدیوها شامل ویدیوهای کاربر DeepTomCruise در TikTok می باشد.

این فناوری، فناوری کاملاً جدیدی نمی باشد. در واقع، سال‌هاست که در استودیوهای فیلم‌سازی هالیوود از آن استفاده می‌شود. با اینکه فیس‌بوک در سال 2020 دیپ فیک را ممنوع کرد اما اکنون از طریق برنامه‌های تجاری در دسترس بسیاری از مردم قرار گرفته که موجب افزایش حجم چنین محتوایی در وب شده است.

چرا دیپ فیک می تواند تهدیدی برای امنیت دیجیتال و اطلاعات باشد؟

مشکل در دیپ فیک‌ها (تولید محتوا با استفاده از هوش مصنوعی) نیست، بلکه مشکل در نحوه استفاده از آن ها می باشد. بر اساس گزارش اخیر از سازمان پلیس اروپا (Europol) هشدار داده شده که بیشتر دیپ فیک‌های منتشر شده دارای نیت مخرب هستند. برخی از سوءاستفاده‌هایی که از این فناوری می‌تواند انجام شود، شامل موارد زیر می باشد:

· نقض ماهیت اخلاقی افراد (مثلاً ساخت ویدیو پورنوگرافی).

· دستکاری تصاویر و صداها برای دور زدن رمزهای عبور بیومتریک.

· تقلب در پلتفرم های دیجیتال

· انتشار اخبار جعلی و اطلاعات نادرست که حتی می تواند بازارهای مالی را مختل کند و روابط بین المللی را متزلزل نماید.

· سرقت هویت.

· اخاذی (تهدید شخص به توزیع محتوای نادرست دردسرساز).

با ارزان‌تر شدن فناوری، ممکن است تعداد تخلفات افزایش یابد. بنابراین باید دیپ فیک ها را بشناسید و آماده باشید.

چگونه دیپ فیک را تشخیص دهیم؟

تشخیص دیپ فیک روز به روز سخت تر می شود. بر اساس، یک مطالعه منتشر شده، "چهره هایی که به صورت مصنوعی تولید می شوند نه تنها عکس واقع گرایانه هستند، بلکه تقریباً از نمونه واقعی قابل تشخیص نیستند و قابل اعتمادتر بنظر می رسند". ولی با این همه، تشخیص غیر ممکن نیست. جزئیاتی وجود دارد که می توان به آنها توجه کرد:

تعداد فلش ها (برق‌زدگی‌ها)

با توجه به تعداد دفعاتی که تصویر در ویدیو چشمک می‌زند، می‌توانیم بفهمیم آیا شخصیت در ویدیو واقعی می باشد یا دیپ فیک، زیرا دیپ فیک‌ها به طور کلی کمتر از افراد واقعی این کار را انجام می‌دهند و گاهی اوقات به صورت مصنوعی یا غیرطبیعی این کار را انجام می‌دهند.

صورت و بدن

جعل کل شخصیت یک فرد مستلزم کار بسیار زیادی می باشد، بنابراین اکثر دیپ فیک ها به جایگزینی چهره محدود می شوند. در نتیجه، یکی از راه‌های تشخیص جعل، شناسایی ناهماهنگی‌های بین تناسب بدن و صورت، یا بین حالات صورت و حرکات یا حالت‌های بدن می باشد.

طول ویدیو

یک فرایند جعلی با کیفیت به چندین ساعت کار و آموزش الگوریتم نیاز دارد، بنابراین ویدیوهای جعلی معمولاً فقط چند ثانیه طول می کشند.

صدای ویدئو

نرم افزار برای ایجاد صوت های تقلبی وجود دارد، اما اغلب به تغییر چهره محدود می شود. اگر ویدیو صدا ندارد یا صدایی دارد که با تصویر ، به خصوص در مورد حرکت لب مطابقت ندارد، بهتر است مشکوک شوید.

داخل دهان

فناوری ایجاد دیپ فیک در بازتولید زبان، دندان ها و حفره دهان در هنگام صحبت کردن فرد خیلی ماهرانه عمل نمی کند. بنابراین وجود ابهامات یا تاری های داخل دهان نشان دهنده یک تصویر جعلی می باشد.

سایر جزئیات

جزئیات نقطه ضعف نرم افزار دیپ فیک می باشد. بنابراین، می‌توانیم آن‌ها را با تمرکز بر جنبه‌های کوچک مانند سایه‌های کمرنگ در اطراف چشم، مو، ریش یا سیبیل غیرواقعی صورت، پوست بیش از حد صاف یا چروکیده، خال‌های ساختگی و رنگ غیرطبیعی لب تشخیص دهیم.

در دیپ فیک‌ها، به دلیل عدم توانایی کامل در بازسازی واقعیت جزئیات، این نشانه‌ها می‌توانند مشاهده شوند. با توجه به وجود سایه‌ها و ویژگی‌های غیرطبیعی در تصویر، می‌توان به راحتی متوجه شد که تصویر دیپ فیک می باشد. با این حال، همچنان نیاز به بررسی و تحلیل دقیق‌تر جزئیات داریم.

استفاده از تکنولوژی

در فرآیندهایی که نیاز به تأیید دقیق‌تری دارند، می‌توان از نرم‌افزار تشخیص دیپ فیک یا سیستم‌های تشخیص زندگی آنلاین (مثلاً گرفتن سلفی) استفاده کرد. به این ترتیب خطر موجود تا حد زیادی کاهش می یابد.

در پایان، افراد باید مراقب محتوای مشکوک باشند و به طور دقیق یاد بگیرند که چگونه دیپ فیک‌ها را تشخیص دهند. افزایش آگاهی و آموزش درباره روش‌های تشخیص دیپ فیک‌ها برای افراد بسیار اهمیت دارد. با اینکه ابزارها و تکنیک‌های تشخیص دیپ فیک‌ها در حال پیشرفت هستند، اما برای مقابله موثر با این تهدید، نیاز به افزایش آگاهی عمومی و آموزش افراد در این زمینه وجود دارد. آشنایی با ویژگی‌ها و نشانه‌های مربوط به دیپ فیک‌ها، ارتقای قدرت قضاوت و انجام بررسی دقیق در مورد محتواهای مشکوک می‌تواند کمک شایانی به شناسایی و جلوگیری از گسترش دیپ فیک‌ها نماید.

منبع خبر : telefonica




خبر دوم:

رئیس جمهور روسیه در چنگال دیپ فیک

در ابتدا، گزارش‌ها حاکی از آن بود که فقط پیام‌های رادیویی تحت تأثیر قرار گرفته‌اند. اما در بررسی ها مشخص شد که این پیغام های کلاهبردارانه در صفحه تلویزیون هم نمایش داده شده اند.

در جریان این حمله سایبری، یک هکر برنامه های رادیویی و تلویزیونی را به خطر انداخته و پیام ساختگی رئیس جمهور روسیه یعنی پوتین را مخابره کرده است.

چندین منطقه در روسیه قربانی یک حمله سایبری پیچیده شدند، زیرا فعلا هکرهای ناشناس موفق شده اند که پخش های رادیویی و تلویزیونی را در معرض خطر قرار دهند و پیامی ساختگی از سوی رئیس جمهور پوتین را مخابره کنند. در این اعلامیه بهتصمیم ادعایی برای اعلام حکومت نظامی در مناطق مرزی روسیه و قصد رئیس جمهور برای امضای فرمان بسیج عمومی اشاره شده است.

زمانبندی این حمله، تنش‌های موجود درباره احتمال حمله نظامی از سوی اوکراین را به چالش کشید و نیروهای نظامی روسیه، مقامات و شهروندان را نگران و مضطرب کرد. با بهره‌برداری از این فضای، هکرها با موفقیت سخنرانی جعلی رئیس جمهور را در شهرهای روستوف، بلگورود و وورونژ، که مستقیماً مجاورت با اوکراین دارند، پخش کردند.

این سخنرانی ساختگی به دروغ خبر از بسیج عمومی در مناطق مرزی اوکراین را می‌داد و وضعیت پرتنش را تشدید می‌کرد.

در واکنش به این حادثه، سخنگوی مطبوعاتی پوتین، تایید کرد که حداقل یک ایستگاه رادیویی هک شده است. وی به صراحت اعلام کرد که رئیس جمهور چنین پیامی را نداده و تاکید کرد که این پیغام کاملا ساختگی می باشد.

دستکاری صدای یک فرد فرایندی ست که با پیشرفت های تکنولوژیکی اخیر به طور فزاینده ای امکان پذیر شده است. ولی، ایجاد دیپ فیک ویدیویی قانع کننده چالش های مهم تری را ایجاد می کند.

منبع خبر : hackread




خبر سوم:

آسیب‌پذیری MOVEit و حادثه اخاذی داده‌های Zellis

چه اتفاقی افتاده است؟

مجرمان از یک آسیب پذیری در برنامه انتقال فایل MOVEit Progress Software که توسط هزاران سازمان در سراسر جهان استفاده می شود، سوء استفاده کرده اند.

در نتیجه ، ارائه‌دهنده خدمات پشتیبانی حقوق و دستمزد Zellis بخاطر سرقت داده‌های مشتریانش دچار نقض داده ای شده است.

چه کسانی تحت تأثیر قرار گرفته اند؟

اطلاعات سرقت شده مربوط به کارمندان هشت مشتری Zellis از جمله BBC، Boots و British Airways می باشد.

سایر سازمان‌های غیر بریتانیایی از جمله Aer Lingus هم تحت تأثیر قرار گرفته‌اند. باز هم، اطلاعات سرقت شده مربوط به کارمندان این سازمان ها می باشد.

منبع خبر : ncsc




خبر چهارم:

هوش مصنوعی دستاوردی جدید در جنگ علیه جرم سایبری

همه فناوری‌های جدید فرصت‌هایی را برای مجرمان ایجاد می‌کنند و رقابتی دائمی برای پیشی گرفتن از جدیدترین تهدیدات بوجود می آید.

سال 2023 سالی ست که هوش مصنوعی (AI) به جریان اصلی تبدیل می شود. هیچ کس نمی تواند متوجه پیشرفت های سریع در پیچیدگی هوش مصنوعی و یادگیری ماشینی نشده باشد. برخی از سیستم‌های هوش مصنوعی بسیار قدرتمند و مبتنی بر مدل‌های زبانی بزرگ (LLM)، مانند ChatGPT، اکنون برای استفاده بدون نیاز به دانش تخصصی طراحی و برای عموم منتشر شده‌اند و دارای نتایج قابل‌توجهی می باشند. اما فرصت‌هایی که نرم‌افزار در اختیار مجرمان سایبری قرار می‌دهد بسیار کمتر مورد توجه قرار می‌گیرد.

مدل های زبانی LLM علاوه بر ایجاد متون متقاعدکننده شبیه انسان، می توانند کدهای کامپیوتری را هم تولید کنند. یعنی می توان از آنها برای تولید بدافزار (نرم افزار مخربی که توسط مجرمان سایبری استفاده می شود) استفاده کرد.

بدافزار پیشرفته

یکی از شرکت های امنیت سایبری گزارشی منتشر کرده که نشان می دهد چگونه از LLM ها به طور بالقوه می توان برای کمک به ایجاد بدافزار پیشرفته استفاده کرد که می تواند براحتی اقدامات امنیتی را دور بزند. محققان توانستند از فیلترهای محتوایی که برای جلوگیری از تولید بدافزار طراحی شده بودند، عبور کنند. از آن زمان به بعد گزارش‌های بیشتری مبنی بر استفاده از LLM برای تولید بدافزار (البته با درجات موفقیت متفاوت) گزارش شده است.

پیامدهای ناشی از این مسئله قابل توجه می باشد. مجرمان سایبری ممکن است در حال حاضر از LLM برای کمک به ایجاد بدافزار قدرتمندتر استفاده کنند که تشخیص آن سخت تر باشد، به راحتی از دفاع های امنیتی سایبری سنتی عبور و آسیب بیشتری وارد کند.

دموکراتیزه شدن جرایم سایبری

تکنولوژی مدل‌های زبانی بزرگ(LLM) برای هر فردی که تمایل استفاده از آن را داشته باشد در دسترس می باشد. این مسئله ممکن است منجر به دسترسی آسانتر به ابزارها و تکنیک‌های مرتبط با جرم سایبری مثلاتولید نرم‌افزارهای مخرب شود. به طور کلی، با اینکه در حال حاضر استفاده از این تکنولوژی بیشتر توسط جنایتکاران سایبری حرفه‌ای صورت می‌گیرد، اما در آینده ممکن است این تکنولوژی برای مبتدیان هم قابل دسترس باشد و در نتیجه دموکراتیزه شدن (افزایش دسترسی عمومی) بیشتر جرم سایبری اتفاق بیافتد.

اما این فناوری فقط از نظر پیچیدگی خروجی و کاربر پسند بودن به سرعت پیشرفت می کند. نه تنها مجرمان سایبری موجود از LLM برای نوشتن بدافزارهایی استفاده می‌کنند که در حال حاضر فراتر از توانایی‌های خودشان می باشد، بلکه سهولت استفاده از آن ممکن است افراد بیشتری را وسوسه کند تا برای اولین بار جرایم سایبری را تجربه کنند.

فیشینگ و مبارزه با جرایم سایبری

به غیر از بدافزارها، LLM ممکن است به مجرمان کمک کند تا ایمیل‌های فیشینگ قانع‌کننده‌تری طراحی کنند، از اشتباهات املایی و دستوری و ناهماهنگی که در حال حاضر به عنوان هشدارهای مفید عمل می‌کنند، اجتناب کنند و به طور بالقوه موانع زبانی را از بین ببرند. کارمندانی که به تازگی در معرض خطر فیشینگ هستند، برای شناسایی تله های پیچیده به کمک بیشتری نیاز دارند. در حال حاضر گزارش‌هایی مبنی بر استفاده از سیستم‌های هوش مصنوعی برای تولید صداهای تقلبی واقعی وجود دارد که قادر به فریب دادن سیستم‌های شناسایی صوتی مورد استفاده موسسات مالی یا متقاعد کردن مردم برای ارسال پول برای کلاهبردارانی هستند که در نقش بستگان مضطرب و در معرض خطر ظاهر می شوند.

خبر خوب این است که هوش مصنوعی می تواند در مبارزه با جرایم سایبری نیز استفاده شود. توانایی آن در تجزیه و تحلیل مقادیر عظیمی از داده ها و خودآموزی می تواند به متخصصان امنیت اطلاعات کمک کند تا همیشه جلوتر از تهدیدات باشند و برنامه های کاربردی ایمن تری را توسعه دهند. توسعه دهندگان LLM همچنین برای جلوگیری از سوء استفاده از محصولاتشان، اقدامات حفاظتی ایجاد می کنند که بدون شک با شناسایی و بسته شدن حفره های موجود، این موارد قوی تر می شوند.

ما در مراحل ابتدایی انقلاب هوش مصنوعی هستیم و سرعت تغییرات در حال افزایش می باشد. بنابراین هیچ چیز مهمتر از این نیست که اقداماتی را برای محافظت از کسب و کار خود در برابر حمله انجام دهیم.

منبع خبر : lexology