خبرنامه وکیل سایبری (7 مرداد)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

07 مرداد 1402




خبر اول:

ابزار جدید FraudGPT هم به کمک مجرمان سایبری آمده است!

هوش مصنوعی تمام جهان را در برگرفته است. با این که فناوری‌های هوش مصنوعی وعده می‌دهند که زندگی بدون دردسری خواهند ساخت اما حوادث امروز این وعده را تایید نمی کنند. در شش ماه گذشته، ما شاهد امکانات بی حد و حصر هوش مصنوعی بودیم و همچنین با تهدیدات بالقوه آن از نظر اطلاعات نادرست، دیپ فیک و از دست دادن مشاغل انسانی رو به رو شدیم.

از ChaosGPT گرفته تا دارک وب که از قدرت هوش مصنوعی برای ایجاد اختلال استفاده می کند، همه در چند ماه گذشته در صدر تیترهای خبری قرار داشتند.

اکنون، به نظر می رسد بُعد جدیدی در عامل تهدید هوش مصنوعی وجود دارد. پس از WormGPT، که به عنوان ابزار کمکی برای مجرمان سایبری شناخته شده بود، در حال حاضر، ابزار هوش مصنوعی تهدیدکننده‌تری وجود دارد. بر اساس گزارش‌ها، عوامل مختلف در بازارهای دارک وب و کانال‌های تلگرام در حال تبلیغ یک هوش مصنوعی مولد برای جرایم سایبری به نام FraudGPT هستند.

بر اساس گزارش ها، FraudGPT رباتی می باشد که برای تخلفاتی مانند ایجاد ابزارهای کرکینگ، ایمیل های فیشینگ و .. استفاده می شود. از این ربات می توان برای نوشتن کدهای مخرب، ایجاد بدافزار غیرقابل شناسایی، شناسایی نشت و آسیب پذیری ها استفاده کرد. چت بات از 22 ژوئیه در انجمن های دارک وب و تلگرام در حال پخش می باشد. طبق گزارشات، قیمت آن 200 دلار برای اشتراک ماهانه می باشد و می تواند تا 1000 دلار برای شش ماه و 1700 دلار برای یک سال افزایش یابد.

تعریف FraudGPT

اسکرین شات، رباتی که در اینترنت دست به دست می شود، حاوی متن "ربات کلاهبرداری چت GPT | ربات بدون محدودیت، قوانین، و مرزها" می باشد. " در واقع، جایگزینی برای چت GPT طراحی شده تا ابزارها، ویژگی‌ها و قابلیت‌های منحصر به فردی را برای نیازهای افراد به صورت کاملاً شخصی بدون محدودیت فراهم کند!"

بر اساس اسکرین شات به اشتراک گذاشته شده توسط کاربر "Canadiankingpin" در دارک وب، FraudGPT به عنوان یک ابزار پیشرفته توصیف شده که "مطمئناً جامعه و روش کار شما را برای همیشه تغییر می دهد". تبلیغ کننده مدعی ست که تاکنون بیش از 3000 فروش تایید شده از FraudGPT وجود داشته است.

ابزار FraudGPT چه کاری می تواند انجام دهد؟

به نظر می رسد که FraudGPT یک راهکار همه کاره برای مجرمان سایبری می باشد زیرا می تواند طیف وسیعی از کارها مانند ایجاد صفحات فیشینگ و نوشتن کدهای مخرب را انجام دهد. ابزاری مانند FraudGPT اکنون می‌تواند کلاهبرداران را واقع‌بینانه‌تر و قانع‌کننده‌تر جلوه دهد و در مقیاس بزرگ‌تر آسیب برساند.

کارشناسان امنیتی بر نیاز به نوآوری جهت مبارزه با تهدیدات ناشی از هوش مصنوعی مانند FraudGPT تاکید کرده اند که می تواند منجر به آسیب بیشتر شود. متأسفانه، بسیاری در این حوزه معتقدند که این مسیر تازه اول راه می باشد و هیچ محدودیتی برای کارهایی که عوامل بد می توانند با قدرت هوش مصنوعی انجام دهند، وجود ندارد.

در اوایل این ماه، ابزار دیگری برای جرایم سایبری هوش مصنوعی بنام WormGPT به روی کار آمد. این ابزار در بسیاری از انجمن‌ها بر روی دارک وب به عنوان ابزاری برای راه‌اندازی حملات فیشینگ و ایمیل‌های تجاری پیچیده تبلیغ شد. کارشناسان این ابزار را جایگزینی برای مدل های GPT نامیده اند که برای انجام فعالیت های مخرب طراحی شده است.

در ماه فوریه، مشخص شد که مجرمان سایبری محدودیت‌های ChatGPT را با استفاده از APIهای (رابط برنامه نویسی) آن دور می‌زنند. هر دو FraudGPT و WormGPT بدون هیچ گونه مرز اخلاقی کار می کنند که شواهد مبنی بر تهدیدات ناشی از هوش مصنوعی مولد کنترل نشده می باشند.

منبع خبر : indianexpress




خبر دوم:

مدیر FBI: اختیارات جاسوسی بخش 702 قانون FISA باید تمدید شود..

به گفته مدیر FBI، تقریباً تمام اطلاعات فنی FBI در مورد "عوامل سایبری" مخرب، در نیمه اول سال جاری، از طریق جستجوهای بخش 702 (Section 702) به دست آمده است.

بخش 702 از قانون نظارت بر اطلاعات خارجی (Foreign Intelligence Surveillance Act) که در سال 2008 به دلایل امنیت ملی معرفی شد، اصولاً به مقامات اجازه می‌دهد که مخابرات الکترونیکی افراد خارجی در خارج از کشور را مورد پیگیری قرار دهند. اما گاهی اوقات، افراد آمریکایی نیز به طور اتفاقی در دام نظارت می افتند. حتی سناتورهای آمریکایی هم ممکن است گرفتار این شبکه نظارتی شوند.

اصلاحیه بحث برانگیز FISA در پایان سال منقضی می شود. مگر اینکه کنگره بندهای نظارتی را مجدداً تصویب کند. مدیر FBI از اهمیت حفظ بخش 702 قانون FISA برای امنیت و فعالیت‌های این سازمان هشدار داده و تاکید می‌کند که این بخش برای آژانس اطلاعاتی بسیار حیاتی و ضروری است و نباید اجازه داده شود که منقضی شود.

مدیر FBI معتقد است که اختیارات جاسوسی اعطا شده توسط بخش 702 نقش "کاملا حیاتی" در جلوگیری از حملات سایبری که سازمان‌ها و افراد آمریکایی را هدف قرار می‌دهند، دارد و به FBI اجازه می‌دهد تا هویت فرد یا گروهی که در پشت پرده حمله سایبری به Colonial Pipeline بوده را تأیید کند.

مدیر FBI در سخنرانی خود در FBI Atlanta Cyber Threat Summit در تاریخ ۲۶ ژوئیه، نیز اعلام کرد که بخش 702 اقدام جاسوسان چینی را برای نفوذ به یک مرکز نقلیه آمریکایی ناشناس را شناسایی کرده است."

مدیر FBI گفت: "بخش 702 برای توانایی ما، به ویژه جهت دستیابی و اقدام اطلاعات سایبری، بسیار حیاتی می باشد". "با استفاده از 702 می‌توانیم ارتباطات بین تهدیدهای خارجی و اهداف در داخل ایالات متحده را پیدا کنیم، اطلاعاتی را که قبلاً به صورت مشروع در اختیار دولت قرار داشته را جستجو کنیم، ممکن است گاهی اوقات حتی قبل از آسیب، بتوانیم قربانیان در معرض خطر را مطلع کنیم."

عوامل سایبری مخرب بیش از نیمی از گزارش های بخش 702 را به خود اختصاص داده اند. نیمه اول سال جاری، 97 درصد از گزارش‌های فنی خام در مورد عوامل سایبری از طریق بخش 702 تهیه شده است. این اطلاعات برای کمک به قربانیان سایبری مورد استفاده قرار می گیرند.

اطلاعاتی که از طریق بخش 702 به دست آمده، به FBI کمک کرده تا 4.4 میلیون دلار از کل پولی که شرکت Colonial Pipeline پس از تعرض به سیستم‌های IT خود در سال 2021 به افراد باج گیر پرداخت کرده، بازیابی شود.

همچنین با خنثی کردن طرح مورد حمایت پکن برای نفوذ به مرکز حمل و نقل، از میلیون ها و یا حتی میلیاردها دلار ضرر جلوگیری شده است.

شناسایی تلاش‌های نفوذ از طریق بخش 702 قانون FISA اهمیت بسیاری در "جلوگیری از اختلالات گسترده در ترانزیت و به‌ویژه، حفظ امنیت عمومی آمریکایی ها" داشته است.

با استفاده از اطلاعات به دست آمده از طریق این بخش از قانون، می‌توان از بروز نقض‌ها و تلاش‌های نفوذی در زیرساخت‌های ترانزیتی کشور جلوگیری کرد و مهم‌تر از همه، امنیت عمومی مردم آمریکا را حفظ کرد. این اطلاعات به FBI اجازه می‌دهد که به‌سرعت واکنش‌های مناسب را نسبت به تهدیدات امنیتی اجرا و مسائل را مدیریت کند تا امنیت مردم حفظ شود.

منبع خبر : theregister




خبر سوم:

هشدارهای FBI نسبت به استفاده دشمنان از هوش مصنوعی

اف بی آی به تلاش های دشمنان خارجی برای استفاده از هوش مصنوعی به عنوان بخشی از کمپین های نفوذ و سایر فعالیت های مخرب و همچنین علاقه آنها جهت آسیب رساندن به نرم افزارهای هوش مصنوعی تجاری و سرقت قابلیت های فناوری در حال ظهور توجه بیشتری دارد.

دو خطر اصلی که آژانس FBI مشاهده می‌کند، "عدم هم‌خطی مدل" و یا حرکت نرم‌افزارهای هوش مصنوعی به سمت نتایج ناخواسته در طول فرآیند توسعه یا استقرار، و "سوءاستفاده مستقیم از هوش مصنوعی" برای کمک به سایر عملیات‌ها می باشد. نخستین خطر، "عدم هم‌خطی مدل" می باشد و به این معناست که این احتمال وجود دارد که نرم‌افزارهای هوش مصنوعی به طرز ناخواسته‌ای توسعه یابند یا مورد استقرار قرار گیرند که باعث تولید نتایج غیرمطلوب و مضر شوند. به عبارت دیگر، اگر مدل هوش مصنوعی به درستی با هدف‌ها یا ارزش‌های مورد نظر هم‌خطی نشود، ممکن است نتایجی تولید کند که مضر یا مخرب باشد.

اما خطر دوم، "سوءاستفاده مستقیم از هوش مصنوعی"، به معنای این است که از فناوری هوش مصنوعی می‌توان به نحوهایی استفاده نادرست و ناعادلانه‌ای کرد که باعث صدمه‌زدن به دیگران یا نقض استانداردها و اصول اخلاقی و قانونی شود. این مشکل نشان می‌دهد که لازم است در توسعه، استقرار و نظارت بر سیستم‌های هوش مصنوعی برای اطمینان از هم‌خطی با هدف‌های موردنظر و جلوگیری از استفاده آن برای اهداف مخرب و غیراخلاقی، دقت و اهتمام لازم اعمال شود.

عوامل خارجی به طور فزاینده ای شرکت ها، دانشگاه ها و مراکز تحقیقاتی دولتی ایالات متحده را بخاطر پیشرفت های هوش مصنوعی، مانند الگوریتم ها، تخصص داده ها، زیرساخت های محاسباتی و حتی مردم، هدف قرار داده اند و اطلاعات را جمع آوری می کنند.

مهارت و استعداد، یکی از جنبه های اصلی در زنجیره تامین هوش مصنوعی محسوب می شود که دشمنان به آن نیاز دارند.

به دنبال هشدار مدیر اف‌بی‌آی مبنی بر استفاده چین از فناوری هوش مصنوعی، مقام‌های ایالات متحده معتقدند که نظام چین مالکیت معنوی را سرقت کرده و از طریق روش‌های غیرقانونی داده‌های خارجی را جمع‌آوری می‌کند. به نظر می‌رسد که این مقامات نگران استفاده چین از هوش مصنوعی به‌عنوان یک ابزار برای سو استفاده از دانش و فناوری ایالات متحده می باشد.

علاوه بر تهدیدهای دولت ملی، مقامات آمریکایی و محققان امنیت سایبری می گویند که مجرمان از هوش مصنوعی به عنوان یک نیروی چند برابری جهت تولید کدهای مخرب، ایجاد ایمیل های فیشینگ متقاعدکننده، توسعه بدافزارهای پیشرفته، کد مهندسی معکوس و ایجاد «محتوای ساختگی» مانند دیپ فیک استفاده می کنند.

هوش مصنوعی برخی از موانع فنی را به میزان قابل توجهی کاهش داده است و به افرادی که تجربه یا تخصص فنی محدودی دارند، اجازه می دهد تا کدهای مخرب بنویسند و فعالیت های سایبری سطح پایین را به صروت همزمان انجام دهند.

با اینکه هوش مصنوعی فعلا در تولید کد پیشرفته نمی باشد، اما به عوامل ماهر کمک کرده تا فرآیند توسعه بدافزار را تسریع ببخشند، حملات جدیدی ایجاد کنند و گزینه‌های تحویل قانع‌کننده‌تر و مهندسی اجتماعی مؤثر را فعال کنند.

منبع خبر : therecord




خبر چهارم:

چالش های مربوط به هوش مصنوعی و محاسبات کوانتومی

پیشرفت در فناوری هوش مصنوعی (AI) امکانات و فرصت های جدیدی را در صنایع مختلف از جمله بیمه باز کرده است. ولی، در کنار این مزایا، در نظر گرفتن خطرات و چالش‌های بالقوه‌ای که با توسعه سریع این فناوری همراه می شود، مهم و ضروری می باشد.

صنعت بیمه برای رسیدگی به ریسک‌های نوظهور و مواجهه با فناوری‌های جدید از موقعیت خوبی برخوردار است. تاثیر هوش مصنوعی، محاسبات کوانتومی و ذهن خوانی بر بخش ریسک و بیمه غیرقابل انکار می باشد، اما اثرات بلندمدت آن فعلا ناشناخته است.

هوش مصنوعی مولد، محاسبات کوانتومی و ذهن خوانی، خطرات و مزایایی را برای صنعت بیمه به همراه دارد. اقتصاد جهانی با پیش‌بینی افزایش تولید ناخالص داخلی (GDP) و رشد بهره‌وری از طریق بکارگیری ابزارهای هوش مصنوعی مولد در کسب‌وکارها از هوش مصنوعی بهره‌می‌برد اما با پررنگ شدن این فناوری، نگرانی‌هایی هم در مورد حریم خصوصی، امنیت سایبری، سوگیری، شیوه‌های فریبنده، و حمایت از مصرف‌کننده به وجود می‌آیند.

ظهور ChatGPT که یک برنامه مولد هوش مصنوعی می باشد، با ظهور WormGPTکه یک ابزار دارک وب بدون مرزهای اخلاقی ست، تلاقی پیدا کرد. این ابزار می تواند برای اهداف مخرب، از جمله ساخت ایمیل های مهندسی اجتماعی جهت فریب دادن افراد مورد استفاده قرار گیرد.

با پیشرفت فناوری، پیامدهای قانونی مربوط به مالکیت داده ها، حفاظت از حریم خصوصی و امنیت داده ها پیچیده تر می شود. هوش مصنوعی و محاسبات کوانتومی به سرعت در حال توسعه هستند و همگرایی این فناوری ها اجتناب ناپذیر می باشد.

با این که ممکن است خطرات فناوری‌های جدید بیشتر از مزایای آنها باشد، پیش‌بینی مواجهه‌های نوظهور مرتبط با این قدرت محاسباتی دشوار هم می باشد. تلاش‌هایی برای تنظیم استفاده از مدل‌های هوش مصنوعی از طریق قوانین و مقررات، مانند به‌روزرسانی‌های اخیر قانون هوش مصنوعی اتحادیه اروپا، در حال انجام می باشد.

ترکیب هوش مصنوعی و محاسبات کوانتومی تهدیدهای بی‌سابقه‌ای را برای چشم‌انداز دیجیتال ایجاد می‌کند که منجر به افزایش فراوانی و شدت حملات سایبری و نقض‌ها می‌شود.

علاوه بر این، هوش مصنوعی و محاسبات کوانتومی خطرات منحصر به فردی را برای مشاغل از نظر امنیت و حریم خصوصی ایجاد می کنند. توانایی دستکاری داده‌ها و توانایی فراگیر خواندن داده‌ها، چالش‌های جدیدی را ایجاد می‌کند که متخصصان در زمینه‌های مختلف باید برای آن آماده باشند.

در بررسی این مسائل پیچیده، درک جمعی، تطبیق و تقویت دفاع در برابر تهدیدهای بالقوه برای اطمینان از امنیت و یکپارچگی آینده دیجیتالی ما، بسیار مهم تلقی می شود.

منبع خبر : fagenwasanni