خبرنامه وکیل سایبری (8 شهریور)

بسمه تعالی

خبرنامه وکیل سایبری

آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.

این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.

8 شهریور 1402




خبر اول:

تسریع در نبرد علیه جرایم آنلاین با بکارگیری هوش مصنوعی

در چشم انداز تکنولوژیکی که به سرعت در حال تحول می باشد، ظهور هوش مصنوعی مولد صنایع را متحول کرده و جرقه نوآوری را در سراسر جهان برانگیخته است. همچنان که کسب‌وکارها از قدرت مدل‌های زبان بزرگ مانند ChatGPT استفاده می‌کنند، فرصت‌های کارآمد و خلاقیت فراوانی هم بوجود می آید. ولی، در عین حال که شرکت‌ها از هوش مصنوعی برای پیشرفت استفاده می‌کنند، مجرمان سایبری هم از همان فناوری جهت سازماندهی حملات پیچیده استفاده می‌کنند.

تهدیدات امنیت سایبری در عصر هوش مصنوعی

همگرایی هوش مصنوعی و جرایم سایبری، عصر جدیدی از تهدیدات آنلاین را آغاز کرده است. هکرها از هوش مصنوعی جهت ایجاد کدهای مخرب، تقویت اثربخشی ایمیل‌ها و متون فیشینگ و انتشار بدافزارها سوء استفاده می‌کنند. توانایی هشداردهنده هوش مصنوعی در تکثیر صداها حتی منجر به این شده که کلاهبرداران با جعل هویت بستگان یا مدیران عامل، افراد و سازمان ها فریب داده و کلاهبرداری کنند.

تشدید رقابت تسلیحاتی بین هوش مصنوعی و امنیت سایبری

پیچیدگی روزافزون حملات سایبری نیازمند یک رویکرد پیشگیرانه برای امنیت سایبری می باشد. افسران ارشد امنیت اطلاعات (CISO) و تصمیم گیرندگان امنیت سایبری اکنون وظیفه دارند که با استفاده از مکانیسم‌های دفاعی مبتنی بر هوش مصنوعی، از عوامل مخرب را پیشی بگیرند. با قانون اخیر کمیسیون بورس و اوراق بهادار که شرکت‌ها را ملزم به افشای استراتژی‌های امنیت سایبری خود می‌کند، ضرورت حفاظت از داده‌های کارکنان و مشتریان بیشتر از قبل احساس می شود.

بکارگیری هوش مصنوعی به منظور بهبود دفاع و امنیت

آموزش اجباری امنیت سایبری و روش‌های سنتی تشخیص تهدید برای مبارزه با حملات تقویت‌شده هوش مصنوعی کافی نمی باشند. تکامل سریع هوش مصنوعی منجر به تلاش‌های پیچیده‌تر فیشینگ و حملات انکار سرویس توزیع شده (DDoS) شده است که اقدامات متقابل نوآورانه را می‌طلبد. تشخیص تهدید محافظتی مبتنی بر هوش مصنوعی راه حل مناسبی می باشد و سازمان ها را قادر می سازد تا همواره جلوتر از دشمنان سایبری بمانند.

اقدامات پیشگیرانه و حفاظتی مبتنی بر هوش مصنوعی

توانمندسازی کارکنان با آموزش هوش مصنوعی: اولین خط دفاعی نیروی کار می تواند ضعیف ترین حلقه آن هم باشد. هوش مصنوعی با شناسایی آسیب‌پذیری‌ها و آموزش کارمندان برای تشخیص مؤثر ایمیل‌های فیشینگ و تلاش‌های هک، راه‌حل های مناسبی را ارائه می‌دهد.

نظارت بر وب تاریک: نظارت بر وب تاریک برای شناسایی رمزهای عبور، ورود به سیستم و اطلاعات شخصی به خطر افتاده برای افراد عادی یک کار دلهره آور است. ابزارهای مجهز به هوش مصنوعی می توانند به طور فعال این اطلاعات را ردیابی کنند و امنیت شخصی و شرکتی را افزایش دهند.

متوقف سازی وب‌سایت‌های تقلبی: سیستم‌های حفاظت از هوش مصنوعی را می‌توان آموزش داد تا دسترسی به وب‌سایت‌های مخربی را که به دنبال سرقت اطلاعات حساس از کارمندان یا مشتریان هستند، مسدود کند.

حذف کلاهبرداری و اسپم ها: هوش مصنوعی می‌تواند با شناسایی تماس‌ها و پیام‌های مشکوک، کلاهبرداری‌ها و اسپم ها را خنثی کند و افراد را از قربانی شدن در طرح‌های کلاهبرداری نجات دهد.

تشخیص ناهنجاری شبکه: استفاده از هوش مصنوعی برای شناسایی فعالیت‌های نامنظم و آسیب‌پذیری‌ها در شبکه، به‌ویژه در ساعات غیر کاری، وضعیت امنیتی سازمان را تقویت می‌کند.

آینده امیدوار کننده

علیرغم پتانسیل هوش مصنوعی برای تشدید تهدیدات امنیت سایبری، شرکت ها با پذیرش راه حل های نوآورانه در حال مقابله با این چالش هستند. درک اینکه چگونه هوش مصنوعی می‌تواند اقدامات امنیتی را تقویت کند، به ویژه از آنجایی که خطای انسانی در حدود 88 درصد از تمام موارد نقض داده‌ها نقش دارد، سرمایه‌گذاری ارزشمندی محسوب می شود.

استقبال از هوش مصنوعی دفاعی

در این دوره از افزایش تهدیدات سایبری با کمک هوش مصنوعی، استفاده دفاعی از هوش مصنوعی به عنوان یک چراغ امید ظاهر می شود. از کسب‌وکارها خواسته می‌شود تا روش هایی را کشف کنند که از پتانسیل هوش مصنوعی برای محافظت از حریم خصوصی کارمندان و مشتریان استفاده ‌کند. همچنان که هوش مصنوعی به شکل دادن به جهان ادامه می دهد، استفاده مسئولانه از آن به یک امر مهم در مبارزه با جرایم آنلاین تبدیل می شود.

تلاقی هوش مصنوعی و جرایم سایبری چشم انداز امنیت سایبری را تغییر می دهد. از آنجایی که عوامل بد از هوش مصنوعی برای اهداف مخرب سوء استفاده می کنند، مسئولیت به کارگیری استراتژی های هوش مصنوعی دفاعی بر عهده سازمان ها می باشد. با آموزش فعالانه کارکنان، نظارت بر دارک وب، توقف فعالیت های کلاهبرداری و شناسایی ناهنجاری ها، کسب و کارها می توانند از پتانسیل هوش مصنوعی برای تقویت سیستم دفاعی امنیت سایبری خود استفاده کنند.

منبع خبر : cryptopolitan




خبر دوم:

کاهش تمرکز مدیران ارشد شرکت ها در جلسات هیئت مدیره، بر روی دفاع سایبری

بر اساس داده‌های جدید با وجود شواهدی مبنی بر افزایش حملات، تمرکز مدیران ارشد شرکت ها در جلسات هیئت مدیره، بر روی دفاع سایبری کمتر شده است. چگونه مدیران ریسک می توانند این مواجهه ها را محدود کرده و امنیت سایبری را تقویت کنند؟

تأثیر اقتصادی جرایم سایبری بر مشاغل در سراسر جهان همچنان رو به افزایش می باشد.

در واقع، پیش‌بینی می‌شود که این هزینه تا سال 2027 به 12.43 میلیارد دلار برسد، در حالی که این مبلغ در سال 2017 فقط 0.7 میلیارد دلار بوده است.

با وجود این مسئله، به نظر می رسد تمرکز هیئت مدیره بر ریسک سایبری در حال کاهش می باشد.

با اینکه ترس‌ها و نگرانی‌های مرتبط با امنیت سایبری کاهش یافته، اما چشم‌انداز خطرات مرتبط با فناوری نیز به شکلی پیچیده و متنوع تقسیم شده است. مدیران و افراد مسئول در شرکت‌ها همچنان نگران تهدیداتی هستند که از طریق فناوری‌های نوآورانه و مخترعانه مانند هوش مصنوعی به وجود می‌آیند.

ناتوانی در همگام شدن با فناوری و سازگاری با نوآوری های جدید موضوعی می باشد که 26 درصد از رهبران کسب و کار جهانی آن را به عنوان دغدغه کلیدی فناوری خود اعلام کردند، با این حال انعطاف پذیری در برابر این تهدید رو به کاهش می باشد و بیش از یک پنجم (21 درصد) از کل مشاغل احساس می کنند که آنها نمی توانند این سرعت تغییر را حفظ کنند.

رهبران همچنین توجه خود را به نگرانی‌های دیگری مانند خطر سرقت مالکیت معنوی (IP) معطوف کرده‌اند و 24 درصد از رهبران کسب‌وکار آن را به عنوان بالاترین ریسک در سال 2023 رتبه‌بندی می‌کنند که بیش از دو برابر سال 2021 (11 درصد) می باشد.

سرقت IP همچنین به خطر سایبری و فناوری تبدیل شده است که کسب‌وکارها در سراسر جهان کمترین آمادگی را برای آن دارند، به طوری که از هر چهار کسب‌وکار یک کسب و کار (26 درصد) گزارش می‌دهد که برای کاهش این خطر آمادگی لازم را ندارد.

کاهش نگران کننده توجه هیئت مدیره به ریسک سایبری، باید زنگ خطری برای مدیران ریسک باشد. پس از پایان نسبتاً آرام سال 2022، فراوانی حملات سایبری جهانی در سه ماهه اول 2023 با افزایش قابل توجهی همراه بوده است.

سازمان های مجرمان سایبری هم از این فناوری های جدید بهره می برند. نمونه‌ای از این بهره وری استفاده از هوش مصنوعی می باشد. با بکارگیری هوش مصنوعی ایجاد ایمیل‌ها، عکس‌ها و ویدیوهای «دیپ فیک» آسان‌تر شده و از آنها می توان برای معتبرسازی حملات فیشینگ هدف دار استفاده کرد.

مجرمان سایبری پیچیده‌تر می‌شوند، مدیران ریسک هم افزایش احتمالی در شدت و دفعات حملات به سازمان‌های خودشان را تجربه خواهند کرد.

مدیر ریسک سایبری در بیزلی می‌گوید: ما شاهد گروه‌بندی مجدد باندهای تبهکار سایبری در روسیه و اوکراین هستیم، زیرا مجرمان به دنبال جبران سود از دست رفته، پس از توقف فعالیتشان در آغاز درگیری هستند.

مدیران ریسک چه اقداماتی را می توانند برای به حداقل رساندن، کاهش یا انتقال تهدیدات انجام دهند؟

رعایت بهداشت اولیه ایمنی ضروری می باشد.

مدیران ریسک باید گام‌های اساسی مانند ایمن کردن آنچه در معرض اینترنت می باشد و برای عوامل تهدید قابل مشاهده می باشد، و فعال سازی احراز هویت چند عاملی را بردارند.

این اقدام، شروع خوبی برای کمک به جلوگیری از بیشتر حملات فرصت طلبانه می باشد.

هر برنامه وب باید با در نظر گرفتن امنیت ساخته شود. اجرای تست نفوذ برای شناسایی نقاط ضعف قبل از اقدام عوامل تهدید، تمرین خوبی محسوب می شود.

محیط‌های ابری نیازمند توجه ویژه هستند زیرا اشتباهات پیکربندی براحتی انجام می شود و عواقب آن اغلب فاجعه‌بار می باشد.

وصله بندی سریع کلیدی برای محافظت در برابر آسیب‌پذیری‌های تازه کشف شده می باشد که اغلب به صورت خودکار گاهی اوقات 15 دقیقه پس از افشای عمومی مورد سوء استفاده قرار می‌گیرند.

در نهایت، اتخاذ استراتژی «دفاع دقیق» که نگاهی جامع به امنیت سایبری دارد و لایه‌های دفاعی متعددی را در برابر حملات احتمالی ایجاد می‌کند، بهترین شکل دفاع محسوب می شود.

این رویکرد سازمان‌ها را مجبور می‌کند تا یک نقض را در نظر گرفته و کنترل‌های لازم را برای محدود کردن تأثیر آن اعمال کنند.

استراتژی دفاع دقیق، شامل تعدادی اقدامات از جمله حصول اطمینان از نصب وصله‌های امنیتی به محض دسترسی، برای سرورهای در معرض و محدود کردن مجوزها و دسترسی کاربران به نیازهای مبتنی بر نقش می باشد.

داشتن یک پیکربندی امنیتی تقویت شده برای سیستم‌ها، برنامه‌ها و منابع ابری امری ضروری است. همچنین، محدود کردن اتصالات شبکه به حداقل لازم و داشتن توانایی تشخیص و پاسخ خودکار (مانند تشخیص و پاسخ نقطه پایانی) از جمله موارد مهم محسوب می شود.

در کنار این اقدامات، طرح‌های واکنش به حوادث و بازیابی حوادث باید توسعه یافته و به طور منظم آزمایش شوند.

علاوه بر این، سیستم های پشتیبان گیری را نادیده نگیرید زیرا آنها باید بتوانند در برابر حمله باج افزار مقاومت کنند. فراموش نکنید که اگر ادمین‌های فناوری اطلاعات شما می‌توانند نسخه‌های پشتیبان را تغییر دهند یا حذف کنند، پس یک عامل تهدید هم می‌تواند این کار را انجام دهد. راه حل ایمن پشتیبان گیری راه حلی ست که به هیچ کاربری اجازه نمی دهد که پس از نوشتن نسخه های پشتیبان را تغییر دهد.

استراتژی دفاع دقیق، یک استراتژی اثبات شده و بسیار موثر جهت کاهش موج فزاینده حملات و حوادث سایبری می باشد.

مدیران ریسک باید به دنبال کاهش مختصر فعالیت به دلیل جنگ در اوکراین دچار احساس امنیت کاذب نشوند. آنها باید هوشیار بمانند و دائماً زیرساخت‌های خود را بررسی کنند تا آسیب‌پذیری‌ها را شناسایی و رفع نمایند.

منبع خبر : strategic




خبر سوم:

ابزار جدید گوگل جهت مبارزه با اطلاعات نادرست

گوگل ابزار جدیدی به نام SynthID معرفی کرده است که هدف آن جلوگیری از انتشار اطلاعات نادرست با تعبیه یک واترمارک نامرئی و دائمی بر روی تصاویر تولید شده توسط کامپیوتر می باشد. SynthID که توسط واحد DeepMind گوگل با همکاری Google Cloud توسعه یافته، از جدیدترین تولیدکننده متن به تصویر به نام Imagen استفاده می کند. واترمارک تولید شده توسط هوش مصنوعی دست نخورده باقی می ماند حتی اگر تصویر با فیلترها یا رنگ های تغییر یافته اصلاح شود.

این ابزار همچنین توانایی اسکن تصاویر دریافتی و تعیین احتمال ایجاد آنها توسط Imagen را دارد. این ابزار از سه سطح اطمینان استفاده می کند: شناسایی شده، شناسایی نشده، و احتمالاً شناسایی شده. اگرچه این ابزار کامل نیست، اما آزمایش داخلی نشان داده که SynthID در برابر بسیاری از دستکاری های رایج در تصاویر دقیق عمل می کند.

نسخه بتا SynthID در حال حاضر برای مشتریان منتخب یعنی Vertex AI که پلت فرم گوگل برای توسعه هوش مصنوعی مولد می باشد در دسترس قرار دارد. Google قصد دارد SynthID را اصلاح و گسترش دهد و به طور بالقوه آن را در سایر محصولات Google ادغام کند یا حتی آن را به اشخاص ثالث ارائه دهد.

تصاویر دیپ فیک و ویرایش شده به طور فزاینده ای واقعی شده اند و نگرانی هایی را در مورد صحت محتوای بصری ایجاد می کنند. شرکت های فناوری، از جمله گوگل، فعالانه به دنبال روش های قابل اعتماد برای شناسایی و علامت گذاری محتوای دستکاری شده هستند. کمیسیون اروپا خواستار پیاده‌سازی فناوری و علامت‌گذاری واضح چنین محتوایی برای کاربران شده است.

در این اقدام، گوگل به دیگر استارتاپ‌ها و شرکت‌های بزرگ فناوری که برای یافتن راه‌حل‌ها تلاش می‌کنند، می‌پیوندد. شرکت هایی مانند Truepic و Reality Defender بخشی از این جریان رو به رشد هستند و تمایز بین واقعیت و ساختگی بودن را تشخیص می دهند.

گوگل با ایجاد ابزارهایی مانند About this image که به کاربران اجازه می دهد منشاء تصاویر موجود در سایت را ردیابی کنند، رویکرد خود را برای مبارزه با اطلاعات نادرست در پیش گرفته است. علاوه بر این، تصاویر تولید شده توسط هوش مصنوعی گوگل دارای نشانه گذاری در فایل اصلی هستند تا در صورت یافتن تصویر در پلتفرم دیگری، اطلاعات توضیحی را ارائه دهند.

با این که این راه حل های فنی برای رسیدگی به مشکل اطلاعات نادرست در نظر گرفته شده است اما توسعه سریع فناوری هوش مصنوعی چالش هایی را هم برای نظارت انسان ایجاد می کند. OpenAI یعنی سازمانی که در پشت پرده Dall-E و ChatGPT قرار دارد، پذیرفته که تلاش‌هایش در تشخیص محتواهای تولید شده توسط هوش مصنوعی همچنان کامل نیستند. بنابراین در استفاده از راه حل های فنی جهت مبارزه با اطلاعات نادرست، احتیاط توصیه می شود.

منبع خبر : fagenwasanni