من علیرضا طباطبایی وکیل پایه یک با همکاری جمعی از وکلا، مهندسان کامپیوتر و کارشناسان جرائم رایانه ای در سال ۹۳ گروه حقوقی تخصصی وکیل سایبری را تاسیس کردم. اینجا مطالب روز دانش حقوقی جهان را دنبال کنید
خبرنامه وکیل سایبری (8 شهریور)
بسمه تعالی
خبرنامه وکیل سایبری
آخرین اخبار روز حقوق سایبری و جرایم سایبری جهان را با وکیل سایبری دنبال کنید.
این خبرنامه زیرنظر مستقیم علیرضا طباطبایی وکیل متخصص حوزه جرایم سایبری آماده می شود.
8 شهریور 1402
خبر اول:
تسریع در نبرد علیه جرایم آنلاین با بکارگیری هوش مصنوعی
در چشم انداز تکنولوژیکی که به سرعت در حال تحول می باشد، ظهور هوش مصنوعی مولد صنایع را متحول کرده و جرقه نوآوری را در سراسر جهان برانگیخته است. همچنان که کسبوکارها از قدرت مدلهای زبان بزرگ مانند ChatGPT استفاده میکنند، فرصتهای کارآمد و خلاقیت فراوانی هم بوجود می آید. ولی، در عین حال که شرکتها از هوش مصنوعی برای پیشرفت استفاده میکنند، مجرمان سایبری هم از همان فناوری جهت سازماندهی حملات پیچیده استفاده میکنند.
تهدیدات امنیت سایبری در عصر هوش مصنوعی
همگرایی هوش مصنوعی و جرایم سایبری، عصر جدیدی از تهدیدات آنلاین را آغاز کرده است. هکرها از هوش مصنوعی جهت ایجاد کدهای مخرب، تقویت اثربخشی ایمیلها و متون فیشینگ و انتشار بدافزارها سوء استفاده میکنند. توانایی هشداردهنده هوش مصنوعی در تکثیر صداها حتی منجر به این شده که کلاهبرداران با جعل هویت بستگان یا مدیران عامل، افراد و سازمان ها فریب داده و کلاهبرداری کنند.
تشدید رقابت تسلیحاتی بین هوش مصنوعی و امنیت سایبری
پیچیدگی روزافزون حملات سایبری نیازمند یک رویکرد پیشگیرانه برای امنیت سایبری می باشد. افسران ارشد امنیت اطلاعات (CISO) و تصمیم گیرندگان امنیت سایبری اکنون وظیفه دارند که با استفاده از مکانیسمهای دفاعی مبتنی بر هوش مصنوعی، از عوامل مخرب را پیشی بگیرند. با قانون اخیر کمیسیون بورس و اوراق بهادار که شرکتها را ملزم به افشای استراتژیهای امنیت سایبری خود میکند، ضرورت حفاظت از دادههای کارکنان و مشتریان بیشتر از قبل احساس می شود.
بکارگیری هوش مصنوعی به منظور بهبود دفاع و امنیت
آموزش اجباری امنیت سایبری و روشهای سنتی تشخیص تهدید برای مبارزه با حملات تقویتشده هوش مصنوعی کافی نمی باشند. تکامل سریع هوش مصنوعی منجر به تلاشهای پیچیدهتر فیشینگ و حملات انکار سرویس توزیع شده (DDoS) شده است که اقدامات متقابل نوآورانه را میطلبد. تشخیص تهدید محافظتی مبتنی بر هوش مصنوعی راه حل مناسبی می باشد و سازمان ها را قادر می سازد تا همواره جلوتر از دشمنان سایبری بمانند.
اقدامات پیشگیرانه و حفاظتی مبتنی بر هوش مصنوعی
توانمندسازی کارکنان با آموزش هوش مصنوعی: اولین خط دفاعی نیروی کار می تواند ضعیف ترین حلقه آن هم باشد. هوش مصنوعی با شناسایی آسیبپذیریها و آموزش کارمندان برای تشخیص مؤثر ایمیلهای فیشینگ و تلاشهای هک، راهحل های مناسبی را ارائه میدهد.
نظارت بر وب تاریک: نظارت بر وب تاریک برای شناسایی رمزهای عبور، ورود به سیستم و اطلاعات شخصی به خطر افتاده برای افراد عادی یک کار دلهره آور است. ابزارهای مجهز به هوش مصنوعی می توانند به طور فعال این اطلاعات را ردیابی کنند و امنیت شخصی و شرکتی را افزایش دهند.
متوقف سازی وبسایتهای تقلبی: سیستمهای حفاظت از هوش مصنوعی را میتوان آموزش داد تا دسترسی به وبسایتهای مخربی را که به دنبال سرقت اطلاعات حساس از کارمندان یا مشتریان هستند، مسدود کند.
حذف کلاهبرداری و اسپم ها: هوش مصنوعی میتواند با شناسایی تماسها و پیامهای مشکوک، کلاهبرداریها و اسپم ها را خنثی کند و افراد را از قربانی شدن در طرحهای کلاهبرداری نجات دهد.
تشخیص ناهنجاری شبکه: استفاده از هوش مصنوعی برای شناسایی فعالیتهای نامنظم و آسیبپذیریها در شبکه، بهویژه در ساعات غیر کاری، وضعیت امنیتی سازمان را تقویت میکند.
آینده امیدوار کننده
علیرغم پتانسیل هوش مصنوعی برای تشدید تهدیدات امنیت سایبری، شرکت ها با پذیرش راه حل های نوآورانه در حال مقابله با این چالش هستند. درک اینکه چگونه هوش مصنوعی میتواند اقدامات امنیتی را تقویت کند، به ویژه از آنجایی که خطای انسانی در حدود 88 درصد از تمام موارد نقض دادهها نقش دارد، سرمایهگذاری ارزشمندی محسوب می شود.
استقبال از هوش مصنوعی دفاعی
در این دوره از افزایش تهدیدات سایبری با کمک هوش مصنوعی، استفاده دفاعی از هوش مصنوعی به عنوان یک چراغ امید ظاهر می شود. از کسبوکارها خواسته میشود تا روش هایی را کشف کنند که از پتانسیل هوش مصنوعی برای محافظت از حریم خصوصی کارمندان و مشتریان استفاده کند. همچنان که هوش مصنوعی به شکل دادن به جهان ادامه می دهد، استفاده مسئولانه از آن به یک امر مهم در مبارزه با جرایم آنلاین تبدیل می شود.
تلاقی هوش مصنوعی و جرایم سایبری چشم انداز امنیت سایبری را تغییر می دهد. از آنجایی که عوامل بد از هوش مصنوعی برای اهداف مخرب سوء استفاده می کنند، مسئولیت به کارگیری استراتژی های هوش مصنوعی دفاعی بر عهده سازمان ها می باشد. با آموزش فعالانه کارکنان، نظارت بر دارک وب، توقف فعالیت های کلاهبرداری و شناسایی ناهنجاری ها، کسب و کارها می توانند از پتانسیل هوش مصنوعی برای تقویت سیستم دفاعی امنیت سایبری خود استفاده کنند.
منبع خبر : cryptopolitan
خبر دوم:
کاهش تمرکز مدیران ارشد شرکت ها در جلسات هیئت مدیره، بر روی دفاع سایبری
بر اساس دادههای جدید با وجود شواهدی مبنی بر افزایش حملات، تمرکز مدیران ارشد شرکت ها در جلسات هیئت مدیره، بر روی دفاع سایبری کمتر شده است. چگونه مدیران ریسک می توانند این مواجهه ها را محدود کرده و امنیت سایبری را تقویت کنند؟
تأثیر اقتصادی جرایم سایبری بر مشاغل در سراسر جهان همچنان رو به افزایش می باشد.
در واقع، پیشبینی میشود که این هزینه تا سال 2027 به 12.43 میلیارد دلار برسد، در حالی که این مبلغ در سال 2017 فقط 0.7 میلیارد دلار بوده است.
با وجود این مسئله، به نظر می رسد تمرکز هیئت مدیره بر ریسک سایبری در حال کاهش می باشد.
با اینکه ترسها و نگرانیهای مرتبط با امنیت سایبری کاهش یافته، اما چشمانداز خطرات مرتبط با فناوری نیز به شکلی پیچیده و متنوع تقسیم شده است. مدیران و افراد مسئول در شرکتها همچنان نگران تهدیداتی هستند که از طریق فناوریهای نوآورانه و مخترعانه مانند هوش مصنوعی به وجود میآیند.
ناتوانی در همگام شدن با فناوری و سازگاری با نوآوری های جدید موضوعی می باشد که 26 درصد از رهبران کسب و کار جهانی آن را به عنوان دغدغه کلیدی فناوری خود اعلام کردند، با این حال انعطاف پذیری در برابر این تهدید رو به کاهش می باشد و بیش از یک پنجم (21 درصد) از کل مشاغل احساس می کنند که آنها نمی توانند این سرعت تغییر را حفظ کنند.
رهبران همچنین توجه خود را به نگرانیهای دیگری مانند خطر سرقت مالکیت معنوی (IP) معطوف کردهاند و 24 درصد از رهبران کسبوکار آن را به عنوان بالاترین ریسک در سال 2023 رتبهبندی میکنند که بیش از دو برابر سال 2021 (11 درصد) می باشد.
سرقت IP همچنین به خطر سایبری و فناوری تبدیل شده است که کسبوکارها در سراسر جهان کمترین آمادگی را برای آن دارند، به طوری که از هر چهار کسبوکار یک کسب و کار (26 درصد) گزارش میدهد که برای کاهش این خطر آمادگی لازم را ندارد.
کاهش نگران کننده توجه هیئت مدیره به ریسک سایبری، باید زنگ خطری برای مدیران ریسک باشد. پس از پایان نسبتاً آرام سال 2022، فراوانی حملات سایبری جهانی در سه ماهه اول 2023 با افزایش قابل توجهی همراه بوده است.
سازمان های مجرمان سایبری هم از این فناوری های جدید بهره می برند. نمونهای از این بهره وری استفاده از هوش مصنوعی می باشد. با بکارگیری هوش مصنوعی ایجاد ایمیلها، عکسها و ویدیوهای «دیپ فیک» آسانتر شده و از آنها می توان برای معتبرسازی حملات فیشینگ هدف دار استفاده کرد.
مجرمان سایبری پیچیدهتر میشوند، مدیران ریسک هم افزایش احتمالی در شدت و دفعات حملات به سازمانهای خودشان را تجربه خواهند کرد.
مدیر ریسک سایبری در بیزلی میگوید: ما شاهد گروهبندی مجدد باندهای تبهکار سایبری در روسیه و اوکراین هستیم، زیرا مجرمان به دنبال جبران سود از دست رفته، پس از توقف فعالیتشان در آغاز درگیری هستند.
مدیران ریسک چه اقداماتی را می توانند برای به حداقل رساندن، کاهش یا انتقال تهدیدات انجام دهند؟
رعایت بهداشت اولیه ایمنی ضروری می باشد.
مدیران ریسک باید گامهای اساسی مانند ایمن کردن آنچه در معرض اینترنت می باشد و برای عوامل تهدید قابل مشاهده می باشد، و فعال سازی احراز هویت چند عاملی را بردارند.
این اقدام، شروع خوبی برای کمک به جلوگیری از بیشتر حملات فرصت طلبانه می باشد.
هر برنامه وب باید با در نظر گرفتن امنیت ساخته شود. اجرای تست نفوذ برای شناسایی نقاط ضعف قبل از اقدام عوامل تهدید، تمرین خوبی محسوب می شود.
محیطهای ابری نیازمند توجه ویژه هستند زیرا اشتباهات پیکربندی براحتی انجام می شود و عواقب آن اغلب فاجعهبار می باشد.
وصله بندی سریع کلیدی برای محافظت در برابر آسیبپذیریهای تازه کشف شده می باشد که اغلب به صورت خودکار گاهی اوقات 15 دقیقه پس از افشای عمومی مورد سوء استفاده قرار میگیرند.
در نهایت، اتخاذ استراتژی «دفاع دقیق» که نگاهی جامع به امنیت سایبری دارد و لایههای دفاعی متعددی را در برابر حملات احتمالی ایجاد میکند، بهترین شکل دفاع محسوب می شود.
این رویکرد سازمانها را مجبور میکند تا یک نقض را در نظر گرفته و کنترلهای لازم را برای محدود کردن تأثیر آن اعمال کنند.
استراتژی دفاع دقیق، شامل تعدادی اقدامات از جمله حصول اطمینان از نصب وصلههای امنیتی به محض دسترسی، برای سرورهای در معرض و محدود کردن مجوزها و دسترسی کاربران به نیازهای مبتنی بر نقش می باشد.
داشتن یک پیکربندی امنیتی تقویت شده برای سیستمها، برنامهها و منابع ابری امری ضروری است. همچنین، محدود کردن اتصالات شبکه به حداقل لازم و داشتن توانایی تشخیص و پاسخ خودکار (مانند تشخیص و پاسخ نقطه پایانی) از جمله موارد مهم محسوب می شود.
در کنار این اقدامات، طرحهای واکنش به حوادث و بازیابی حوادث باید توسعه یافته و به طور منظم آزمایش شوند.
علاوه بر این، سیستم های پشتیبان گیری را نادیده نگیرید زیرا آنها باید بتوانند در برابر حمله باج افزار مقاومت کنند. فراموش نکنید که اگر ادمینهای فناوری اطلاعات شما میتوانند نسخههای پشتیبان را تغییر دهند یا حذف کنند، پس یک عامل تهدید هم میتواند این کار را انجام دهد. راه حل ایمن پشتیبان گیری راه حلی ست که به هیچ کاربری اجازه نمی دهد که پس از نوشتن نسخه های پشتیبان را تغییر دهد.
استراتژی دفاع دقیق، یک استراتژی اثبات شده و بسیار موثر جهت کاهش موج فزاینده حملات و حوادث سایبری می باشد.
مدیران ریسک باید به دنبال کاهش مختصر فعالیت به دلیل جنگ در اوکراین دچار احساس امنیت کاذب نشوند. آنها باید هوشیار بمانند و دائماً زیرساختهای خود را بررسی کنند تا آسیبپذیریها را شناسایی و رفع نمایند.
منبع خبر : strategic
خبر سوم:
ابزار جدید گوگل جهت مبارزه با اطلاعات نادرست
گوگل ابزار جدیدی به نام SynthID معرفی کرده است که هدف آن جلوگیری از انتشار اطلاعات نادرست با تعبیه یک واترمارک نامرئی و دائمی بر روی تصاویر تولید شده توسط کامپیوتر می باشد. SynthID که توسط واحد DeepMind گوگل با همکاری Google Cloud توسعه یافته، از جدیدترین تولیدکننده متن به تصویر به نام Imagen استفاده می کند. واترمارک تولید شده توسط هوش مصنوعی دست نخورده باقی می ماند حتی اگر تصویر با فیلترها یا رنگ های تغییر یافته اصلاح شود.
این ابزار همچنین توانایی اسکن تصاویر دریافتی و تعیین احتمال ایجاد آنها توسط Imagen را دارد. این ابزار از سه سطح اطمینان استفاده می کند: شناسایی شده، شناسایی نشده، و احتمالاً شناسایی شده. اگرچه این ابزار کامل نیست، اما آزمایش داخلی نشان داده که SynthID در برابر بسیاری از دستکاری های رایج در تصاویر دقیق عمل می کند.
نسخه بتا SynthID در حال حاضر برای مشتریان منتخب یعنی Vertex AI که پلت فرم گوگل برای توسعه هوش مصنوعی مولد می باشد در دسترس قرار دارد. Google قصد دارد SynthID را اصلاح و گسترش دهد و به طور بالقوه آن را در سایر محصولات Google ادغام کند یا حتی آن را به اشخاص ثالث ارائه دهد.
تصاویر دیپ فیک و ویرایش شده به طور فزاینده ای واقعی شده اند و نگرانی هایی را در مورد صحت محتوای بصری ایجاد می کنند. شرکت های فناوری، از جمله گوگل، فعالانه به دنبال روش های قابل اعتماد برای شناسایی و علامت گذاری محتوای دستکاری شده هستند. کمیسیون اروپا خواستار پیادهسازی فناوری و علامتگذاری واضح چنین محتوایی برای کاربران شده است.
در این اقدام، گوگل به دیگر استارتاپها و شرکتهای بزرگ فناوری که برای یافتن راهحلها تلاش میکنند، میپیوندد. شرکت هایی مانند Truepic و Reality Defender بخشی از این جریان رو به رشد هستند و تمایز بین واقعیت و ساختگی بودن را تشخیص می دهند.
گوگل با ایجاد ابزارهایی مانند About this image که به کاربران اجازه می دهد منشاء تصاویر موجود در سایت را ردیابی کنند، رویکرد خود را برای مبارزه با اطلاعات نادرست در پیش گرفته است. علاوه بر این، تصاویر تولید شده توسط هوش مصنوعی گوگل دارای نشانه گذاری در فایل اصلی هستند تا در صورت یافتن تصویر در پلتفرم دیگری، اطلاعات توضیحی را ارائه دهند.
با این که این راه حل های فنی برای رسیدگی به مشکل اطلاعات نادرست در نظر گرفته شده است اما توسعه سریع فناوری هوش مصنوعی چالش هایی را هم برای نظارت انسان ایجاد می کند. OpenAI یعنی سازمانی که در پشت پرده Dall-E و ChatGPT قرار دارد، پذیرفته که تلاشهایش در تشخیص محتواهای تولید شده توسط هوش مصنوعی همچنان کامل نیستند. بنابراین در استفاده از راه حل های فنی جهت مبارزه با اطلاعات نادرست، احتیاط توصیه می شود.
منبع خبر : fagenwasanni
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (19 اسفند)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (26 خرداد)
مطلبی دیگر از این انتشارات
خبرنامه وکیل سایبری (24 مهر)