خبرنامه وکیل سایبری (13 مهر)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

13 مهر 1402




خبر اول:

افزایش بی سابقه کلاهبرداری تلفنی

راه حل های امنیت داده در 20 سال گذشته به طور قابل توجهی پیشرفت کرده اند و این امر مجرمان سایبری امروزی را مجبور کرده که تمرکز خود را بر روی روش های آسان تر دسترسی به اطلاعات جهت بهره وری معطوف کنند. در حال حاضر، مجرمان زیرساخت‌های ارتباطات صوتی (VOIP) شرکت‌ها را مانند قبل مورد هدف قرار داده‌اند و کاملا هم موفق هستند.

با دورکاری روزافزون نیروی کار، مجرمان سایبری با حملات پیشرفته‌تر مبتنی بر صوت (SIP) مانند تماس‌های خودکار، جعل شماره تماس، حملات انکار خدمات تلفنی (DOS)، جعل هویت و مهندسی اجتماعی شرکت ها و کارمندان آنها را مورد هدف قرار داده اند.

در گزارش وضعیت باج‌افزار Sophos، 78 درصد از شرکت‌های آفریقای جنوبی مورد بررسی گزارش داده اند که در سال گذشته، در معرض حملات باج‌افزاری قرار گرفته‌اند که این آمار نسبت به دوره گزارش قبلی 51 درصد افزایش داشته است.

گزارش اخیر Metrigy ، صدا را به عنوان پرکاربردترین کانال شناسایی کرده است. در واقع، 73.1٪ از همه تعاملات یا با استفاده از صدا به عنوان کانال اولیه شروع می‌شوند یا به عنوان یک گام تسریعی از یک کانال دیگر استفاده می‌شوند.. از آنجایی که صدا یک کانال حیاتی برای مشاغل می باشد، ابزارهای تجزیه و تحلیل ارتباطات باید برای فعال کردن اقدامات امنیتی پیشگیرانه تر و کاهش نیاز به احراز هویت تماس‌گیرندگان در مرکز تماس تلاش کنند.

مطالعه اخیری که توسط CrowdStrike Intelligence انجام شده، افزایش مهندسی اجتماعی را با استفاده از تعامل انسانی، مانند vishing (فیشینگ صوتی)، جهت دانلود موفقیت آمیز بدافزار یا دور زدن احراز هویت چند عاملی شناسایی کرده است. تعامل مستقیم با قربانیان، دارایی ارزشمندی برای انجام عملیات جرایم سایبری محسوب می شود.

مراکز تماس اغلب هدف‌های مکرر این نوع از حملات می باشند و چالش اسکرینینگ (پایش و بررسی) اغلب بر عهده عوامل فردی در این مراکز قرار دارد. به عبارت دیگر، بررسی و تشخیص اینگونه حملات بیشتر بر عهده کارمندان این مراکز می باشد.

کمیسیون تجارت فدرال (FTC) اعلام کرده که 20٪ از گزارش‌های کلاهبرداری که در سال 2022 دریافت کرده، با استفاده از تماس تلفنی به عنوان روش ارتباطی و 22٪ دیگر از طریق پیامک بوده است.

طبق آمار سرویس پیشگیری از کلاهبرداری آفریقای جنوبی (SAFPS)، در پایان سال 2022 در مقایسه با سال 2018، موارد کلاهبرداری گزارش شده توسط اعضای آن، 600 درصد افزایش داشته است. علاوه بر افزایش بی‌سابقه موارد کلاهبرداری، در گزارش اینترپل در ماه گذشته، آفریقای جنوبی عنوان مرکز جرایم سایبری آفریقا را به خود اختصاص داد. این کشور بیش از 230 میلیون حادثه را ثبت کرده است.

تهدیدات مبتنی بر ارتباطات که منجر به سرقت خدمات، تماس‌های آزاردهنده و اختلال در تصاحب حساب می‌شود، می‌تواند به طور جدی به برند شما آسیب برساند، بر کارایی عملیاتی تأثیر منفی بگذارد و باعث زیان مالی قابل توجهی شود.

ارزیابی تجزیه و تحلیل مبتنی بر ابر

با بررسی متادیتاها از طریق تماس‌های ورودی و خروجی، شامل اطلاعات مبدأ تماس، زمان و مقصد، راه‌حل‌های تحلیلی همچون محصول "Security Shield " بر مبنای ابر اوراکل می‌توانند شناسایی کنند که آیا الگویی شبیه به طرح تقلب شناخته شده می باشد یا اینکه آیا نسبت به فعالیت‌های معمول دستگاه یا کاربر غیر عادی می باشد یا خیر. این تحلیل‌های پیش‌بینی بصورت آنی به شرکت‌ها این امکان را می‌دهند تا در تدابیر امنیتی خود فعالانه عمل کنند و پیش از وقوع حمله، به جای واکنش پس از وقوع حادثه، اقدام کنند.

اطلاعات تجزیه و تحلیل کسب و کار قابل دسترسی، در راه حل هایی مانند Security Shield بینش عملی و دید بصری از ترافیک شبکه و تهدیدات را ارائه می دهد. کاربران از طریق توانایی تشخیص ناهنجاری ها، بررسی و تعیین راه حل ها بهره می برند.

قبل از رایانش ابری، استفاده از این سطح از تجزیه و تحلیل برای اکثر شرکت ها هزینه بالایی داشت. تجزیه و تحلیل های به دست آمده از کلان داده ها ارزش هزینه سخت افزار و نرم افزار اضافی مورد نیاز برای جمع آوری و پردازش داده ها را نداشت. با عملکرد بالای ابر، فضای ذخیره‌سازی فراوان و مدل کسب‌وکار SaaS، هر شرکتی بدون در نظر گرفتن اندازه، در حال حاضر می تواند از قدرت تجزیه و تحلیل استفاده کند.

محصول Security Shield چگونه کار می کند؟

این محصول تماس‌هایی را که از شبکه یک شرکت عبور می‌کنند، ارزیابی می‌کند، امضاها و رفتارهای تماس مخرب را شناسایی و برای هر تماس یک ارزیابی ریسک بصورت آنی تولید می‌کند. Security Shield امکان مشاهده ترافیک تلفنی، نوع تماس‌ها، خطرات و بینش‌های عملی را فراهم می‌کند که منجر ب بررسی هوشمندتر می شود. Security Shieldاز تجزیه و تحلیل رفتاری مبتنی بر یادگیری ماشین استفاده می کند تا شماره تلفن ورودی را بررسی کند و رفتار تماس واقعی را که نشان دهنده فعالیت اسپم و فعالیت مخرب می باشد، ردیابی کند. این فرایند یک امتیاز ارزیابی ریسک ایجاد می کند که طبقه بندی قابل درک را ارائه می دهد. Security Shield با استفاده از نتایج تجزیه و تحلیل رفتاری، اطلاعاتی را در مورد هدف تماس (به عنوان مثال: تماس احتمالی کلاهبرداری، تماس احتمالی خودکار یا تماس احتمالی بازاریابی تلفنی و ...) ارائه می دهد.

منبع خبر : .itweb




خبر دوم:

فقدان قوانین علیه دیپ فیک های سیاسی تولید شده توسط هوش مصنوعی

در سال جاری، تولید دیپ فیک‌ها توسط هوش مصنوعی به محبوبیت زیادی دست یافته است. در این ویدیوهای دیپ فیک صدا یا تصویری از افراد مشهور به شکلی غیرطبیعی و ناگوار نمایش داده می شود. به عنوان مثال، تام هنکس در حال تبلیغ برنامه دندانپزشکی، پاپ فرانسیس یک کاپشن جذاب پوشیده و سناتور آمریکایی رند پل، بر روی پله عمارت کنگره با یک حوله حمام قرمز نشسته است.

در سال آینده و در آستانه انتخابات ریاست جمهوری ایالات متحده چه اتفاقی خواهد افتاد؟

گوگل اولین شرکت فناوری بود که اعلام کرد که برچسب‌های جدیدی را بر روی تبلیغات سیاسی تولید شده توسط هوش مصنوعی که ممکن است، صدا یا اقدامات یک نامزد را جعل کند، اعمال خواهد کرد.

در حال حاضر برخی از قانونگذاران ایالات متحده از پلتفرم های رسانه های اجتماعی X، فیس بوک و اینستاگرام پرسیده اند که چرا آنها این کار را انجام نمی دهند.

دو عضو دموکرات کنگره روز پنجشنبه، نامه‌ای به مارک زاکربرگ، مدیرعامل متا و لیندا یاکارینو، مدیر عامل ایکس ارسال کردند و در آن «نگرانی‌های جدی» خود را در مورد ظهور تبلیغات سیاسی تولید شده توسط هوش مصنوعی در پلتفرم‌های خود ابراز کردند و از هر یک در خواست کرده اند تا در مورد هرگونه قوانینی که برای مهار آسیب‌ها به انتخابات آزاد و منصفانه در حال تدوین می باشد، توضیح دهند.

سناتور آمریکایی بنام ایمی کلوبوچار از ایالت منیسوتا اعلام کرد، این دو پلتفرم از بزرگترین پلتفرم‌ها هستند و رأی‌دهندگان حق دارند بدانند چه اقداماتی برای محافظت از آنها انجام خواهند داد.

بر اساس نامه ای که توسط سناتور کلوبوچار و نماینده کنگره کلارک نوشته شده، با نزدیک شدن به انتخابات سال 2024، عدم شفافیت درباره محتوای این نوع تبلیغات سیاسی ممکن است منجر به یک جریان خطرناک از اطلاعات نادرست و اشتباه در مورد انتخابات شود که در پلتفرم‌های این شرکت‌ها منتشر می‌شود. این موارد معمولاً در جایی که رأی‌دهندگان برای آشنایی با نامزدها و مسائل مختلف مراجعه می‌کنند، رخ می دهند.

شرکت ایکس که پیش‌تر با نام توییتر شناخته می‌شد، و متا، شرکت مادر فیسبوک و اینستاگرام، به درخواست‌ها جهت ارائه نظر در روز پنج‌شنبه پاسخ فوری ندادند. کلارک و کلوبوچار از مدیران اجرایی خواسته‌اند تا به سوالات آنها تا تاریخ 27 اکتبر پاسخ داده شود.

فشار بر شرکت‌های رسانه‌های اجتماعی به این دلیل است که هر دو نماینده کنگره در راهبرد تنظیم تبلیغات سیاسی تولید شده توسط هوش مصنوعی نقش دارند. یک لایحه مجلسی که توسط کلارک در ابتدای امسال معرفی شد، قصد اصلاح قانون انتخابات فدرال را دارد تا الزاماتی برای نصب برچسب در تبلیغات انتخاباتی که شامل تصاویر یا ویدیوهای تولید شده توسط هوش مصنوعی هستند، اعمال کند.

کلارک در مصاحبه ای روز پنج‌شنبه اظهار کرد: "من فکر می‌کنم که مردم دارای حق اولین اصلاحی (حق آزادی بیان) هستند تا هر محتوایی که به آن تمایل دارند بر روی پلتفرم‌های رسانه‌های اجتماعی قرار دهند. باید اطمینان حاصل شود که در مورد اطلاعات ساختگی، یک اخطار وجود دارد و مردم آمریکا می دانند که این اطلاعات تولید شده ساختگی هستند.

در مورد کلوبوچار، که در سنا لایحه‌ای مشابه را حمایت می‌کند و قصد دارد آن را تا پایان سال به تصویب برساند، این موضوع حداقل چیزی ست که باید انجام شود. در این مدت، هر دو نماینده امیدوارند که پلتفرم‌های اصلی شان به تنهایی اقدامات لازم را به خصوص با توجه به نابسامانی‌ها که باعث شده که در مجلس نمایندگان هنوز سخنگوی منتخب نداشته باشند، انجام دهند.

گوگل در حال حاضر اعلام کرده که از نیمه‌ی نوامبر، از هر تبلیغات انتخاباتی تولید شده توسط هوش مصنوعی که افراد یا وقایع را در یوتیوب و سایر محصولات گوگل تغییر داده باشد، می‌ خواهد که دارای یک اخطار روشن و واضح باشند. سیاست گوگل در هر آمریکا و در سایر کشورهایی که شرکت تبلیغات انتخاباتی را تأیید می‌کند اجرا می‌شود. شرکت مادر فیسبوک و اینستاگرام، متا، قانون خاصی برای تبلیغات سیاسی تولید شده توسط هوش مصنوعی ندارد اما دارای سیاستی ست که استفاده از صدا و تصاویر تغییر یافته یا تحریف شده را در ترویج اطلاعات غلط محدود می‌کند.

لایحه جدید و دو حزبی در سنا، که توسط کلوبوچار، سناتور جمهوری‌خواه جاش هالی از میزوری و دیگران همکاری می‌شود، بیشتر استفاده از دیپفیک‌هایی را ممنوع می کند که به طور جدی اطلاعات را تحریف می‌کنند، به استثناء حالاتی که مرتبط با طنز می باشند.

تبلیغات تولید شده توسط هوش مصنوعی در حال حاضر جزو انتخابات 2024 هستند، از جمله یک تبلیغ که توسط کمیته ملی جمهوری‌خواه در آوریل پخش شد و قرار بود آینده ایالات متحده را نشان دهد در صورتی که رئیس‌جمهور جو بایدن دوباره انتخاب شود. این تبلیغ از تصاویر جعلی اما واقع‌گرایانه استفاده کرده که نمایانگر فروشگاه‌های تخته شده، گشت های نظامی مسلح در خیابان‌ها و مهاجرانی مضطرب بوده است.

کلوبوچار اعلام کرد که چنین تبلیغی احتمالاً طبق قوانین پیشنهادی در لایحه سنا ممنوع خواهد بود. همچنین، تصویر جعلی دونالد ترامپ که دکتر آنتونی فائوچی، متخصص بیماری های عفونی را در آغوش می گیرد. این تصویر جعلی در یک تبلیغ حمله‌ای از سوی رون دسانتیس، رقیب ترامپ در انتخابات ابتدایی حزب جمهوری‌خواه در فلوریدا، استفاده شده بود.

در یک مثال دیگر، سناتور دموکرات الیزابت وارن در یک مصاحبه تلویزیونی که به تاخیر افتاده، محدودیت‌هایی را در مورد حق رای دادن جمهوری‌خواهان مطرح کرده است.

اگر در یک رقابت ریاست‌جمهوری، کاندیدای مورد نظر شما و کاندیدایی که مورد نظر شما نیست، سخنرایی هایی ارائه دهند که درست نباشند، این امر بسیار گمراه‌کننده خواهد بود.

کلوبوچار، که ریاست کمیته قوانین و اداره سنای آمریکا را بر عهده دارد، در تاریخ ۲۷ سپتامبر یک جلسه درباره هوش مصنوعی و آینده انتخابات را ریاست کرد که شاهدانی از جمله وزیر دولت ایالت منیزوتا، مدافع حقوق مدنی و برخی از افراد مشکوک به مسائل شرکت کردند. جمهوری‌خواهان و برخی از شاهدانی که درخواست شهادت دادند، نسبت به قوانینی که به عنوان دخالت در حفاظت از آزادی بیان در نظر گرفته می‌شوند، مراقب بوده‌اند.

وکیل مرکز تفکرTechFreedom به نام آری کوهن این سوال را مطرح می کند که آیا قوانین جدیدی لازم است یا خیر.

حتی سخنان غلط هم تحت حفاظت قانون اولیه (نخستین اصلاحیه) می باشد. در واقع، تصمیم‌گیری درباره حقیقت و غلط در سیاست در حیطه اختیار رأی‌دهندگان قرار دارد.

برخی از دموکرات‌ها هم تمایلی به حمایت از ممنوعیت کامل دیپ فیک‌های سیاسی ندارند.

کمیسیون انتخابات فدرال(FEC) در ماه آگوست یک اقدامی انجام داده که ممکن است منجر به تنظیم دیپ فیک‌های تولید شده توسط هوش مصنوعی در تبلیغات سیاسی شود. این اقدام شامل ارسال یک درخواست به عموم بود که در آن از آنها خواسته شده تا قوانینی درباره تصاویر، ویدئوها و کلیپ‌های صوتی گمراه‌کننده توسعه دهند.

منبع خبر : abc27




خبر سوم:

محکومیت عاملین طرح پونزی AirBit Club

دادگاه منطقه ای ایالات متحده در ناحیه جنوبی نیویورک در حال انجام اقدامات قاطع علیه افرادی ست که با طرح رمزارز پونزی، AirBit Club مرتبط هستند. تحولات اخیر باعث شده است که عوامل کلیدی این طرح، از جمله اسکات هیوز، سیسیلیا میلان، و کارینا چایرز به دلیل نقش‌هایشان در حلقه بین‌المللی کلاهبرداری و پولشویی محکوم شوند.

بسیاری از کارشناسان بر این باورند که توسعه اخیر، نقطه عطفی در پیگیری عدالت علیه عاملان جسورانه ترین کلاهبرداری های صنعت ارزهای دیجیتال می باشد.

عدالت برای قربانیان AirBit Club اجرا شد...

دادگاه منطقه ای ایالات متحده در منطقه جنوبی نیویورک با ایجاد پیشرفت قابل توجهی در پاسخگویی عاملان طرح پونزی AirBit Club بخاطر اقدامات شان، پیام روشنی به کلاهبرداران رمزارز ارسال کرده است.

پس از ماه‌ها رسیدگی قانونی، دادگاه سه متهم اصلی، اسکات هیوز، سیسیلیا میلان و کارینا شایرز را به دلیل نقش‌شان در کلاهبرداری رمزارز که میلیون‌ها سرمایه‌گذار ناآگاه را فریب داده اند، محکوم کرد.

طرح AirBit Club، که در اواخر سال 2015 راه اندازی شد، به عنوان یک شرکت تجارت ارز دیجیتال مشروع، با استفاده از رویکرد بازاریابی چند سطحی برای جذب سرمایه گذاران، شروع به کار کرد. این پروژه وعده بازگشت تضمینی روزانه سرمایه گذاری در ارزهای دیجیتال را داده بود.

علاوه بر این، کلاهبرداران در پشت پرده AirBit Club قربانیان را با پیشنهادات قانع‌کننده فریب می‌دادند و آنها را متقاعد می‌کردند که پولشان را در بازار ارزهای دیجیتال سرمایه گذاری کنند. ولی، بنیانگذاران و عاملین این طرح به جای عمل به این وعده‌ها، تقریباً 100 میلیون دلار از پول سرمایه‌گذاران را به خود اختصاص داده اند.

قربانیانی هم که سعی در برداشت وجوه از پلتفرم داشته اند، اغلب با بهانه‌ها، تاخیرها و هزینه‌های پنهانی مواجه می‌شدند که موجب زیان‌های قابل توجهی برای آنها می‌شد.

منبع خبر : coingape