هوش مصنوعی را میتوان یکی از مهمترین فناوریهای انقلابی در چندسال اخیر دانست و من در حاشیه جشنواره ملی امنیت فضای تبادل اطلاعات به بررسی تلاقی هوش مصنوعی و امنیت سایبری پرداختم. در این ارائه توضیح دادم که هوش مصنوعی را میتوان ابزاری برای دفاع، ابزاری برای حمله و هدفی برای حمله دانست. در این مقاله تلاش کردهام بخشی از ارائه را با اهالی ویرگول نیز در میان بگذارم.
استفاده از هوش مصنوعی به عنوان ابزاری برای دفاع شاید اولین کاربردی باشد که برای هوش مصنوعی به ذهن متخصصان رسیدهاست و شاید به عنوان اولین قدم بتوانیم هوش مصنوعی را به عنوان دستیاری برای بهبود فرایندهای مدیریت امنیت در سازمانها بدانیم.
بر طبق آمارهای جهانی، ۶۸ درصد از نشتهای امنیتی در سازمانها به واسطهی یک عامل انسانی بودهاست و حدود ۱۶ درصد از آنها به واسطهی انتشار ناصحیح سامانههایی که نباید منتشر میشدهاند اتفاق اتفاده است. در راستای جلوگیری از این حملات میتوان از چتباتها برای آموزش و توانمندسازی کارشناسان و متخصصان امنیت استفاده کرد.
کاربرد دیگر هوش مصنوعی در مدیریت امنیت، اولویتبندی خودکار تهدیدها و کمک به تدوین استراتژیهای کاهش ریسک است. جالب آنجاست که بدانیم در ۸۰ درصد نشتهایی که در سال ۲۰۲۳ در سازمانها اتفاق افتاده است، سازمان هدف یک ابزار برای دفاع در مقابل حملهی مذکور داشته است اما به دلیل تنظیم ناصحیح و مشخص نبودن نقاط ضعف سازمان برای کارشناسان امنیت، ابزار موفق به جلوگیری از حمله نشدهاست. با این تفسیر، استفاده از موتورهای هوشمندی که بتوانند از میان انبوده رویدادهای مشکوک تنها تمرکز متخصصین را به تهدیدهای بالقوه معطوف کنند، بسیار کاربردی خواهد بود. همچنین، مشخص کردن محتملترین ریسکهای سازمان از جمله دیگر کاربردهای هوش مصنوعی در افزایش تمرکز کارشناسان و متخصصان سازمانها به بخشهای پر ریسک شبکه در سازمان است.
علاوه بر موارد ذکر شده، در بسیاری از ابزارهای لبه دانش در سالهای اخیر، ردپای هوش مصنوعی در تولید خودکار حوادث برای ارزیابی تجهیزات امنیتی مورد استفاده در سازمان و صحت تنظیم آنها دیده شدهاست. از این رو، ابزارهای هوشمندی توسعه یافتهاند که بر اساس مختصات شبکهی سازمانها تلاش میکنند حملاتی را تولید کنند که ابزارهای مورد استفاده در سازمانها را به چالش بکشد. خصوصا، در سالهای اخیر و با مدلهای جدید Generative AI انتظار میرود ابزارهای هوشمند بتوانند با ترکیب حملات موجود، حملات خلاقانهی جدیدی را تولید کنند.
از آنجایی که در ۲۰۲۴، در دنیا بیش از ۳٫۵ میلیون جایگاه شغلی حوزهی امنیت پر نشدهاند؛ ۷۵درصد متخصصان حوزهی امنیت معتقند که هوشمصنوعی میتواند وظایف تکراری آنها را بر عهده بگیرد تا این متخصصان بتوانند بر مسائل پیچیدهتر در سازمان خود بپردازند و نیازمندی سازمانها به تیمهای امنیتی بزرگ کاهش یابد. به همین دلیل، در دنیا ابزارهایی تلاش میکنند به صورت خودکار حادثههایی که در سازمانها رخ میدهند را تحلیل کرده و پیشنویس گزارش رسیدگی به حادثه را تدوین کنند.
ابزارهای SIEM همیشه تلاش کردهاند از روشهایی هوشمند برای تحلیل رخدادهای امنیتی سازمانها و تشخیص همبستگی میان آنها استفاده کنند و از این رو انتظار میرود پیشرفت چشمگیر الگوریتمهای هوش مصنوعی، تاثیری شگرف در این محصولات داشته باشد. جالب آنجاست که اکثر محصولات مطرح در حوزه به جای آنکه محصولات قبلی خود را به روشهای مبتنی بر هوش مصنوعی مدرن تجهیز کنند، تصمیم گرفتهاند تا محصولات جدیدی به صورت هوشپایه طراحی و پیادهسازی کنند. همچنین، بسیاری از ابزارهای موجود SIEM تلاش کردهاند برای دور نماندن از رقابت تنگاتنگ با ابزارهای دیگر حداقل ویژگیهایی را برای فیلتر کردن و اولویتبندی هوشمند هشدارها در ابزار خود پیادهسازی نمایند.
از دیگر کاربردهای هوش مصنوعی در ابزارهای تشخیص حمله، میتواند به تحلیل رفتار کاربران برای تشخیص تهدیدهای داخلی (insider) و حسابهای کاربری در اختیار مهاجم (compromised accounts) اشاره کرد. در سال ۲۰۲۳، تعداد ۸۵۱ نشت اطلاعات در دنیا به واسطهی سوء استفاده از دسترسیهای کاربران داخلی اتفاق افتاده است؛ از این رو، ابزارهای هوشمندی که رفتارهای کاربران سازمانها میشناسند و در صورت بروز سوء رفتار میتوانند به سرعت به متخصصان و کارشناسان گزارش دهند میتواند چنین حملاتی را خنثی کند.
در ادامه، اخیرا انتشار مدلهای Generative قدرتمندتر و پر استفادهشدن مدلهای GPT، احتمال استفاده از هوش مصنوعی در تحلیل خودکار حملات و بهبود خودکار Playbookهای SOAR برای جلوگیری از این حملات در آینده را تقویت کردهاست.
همگام با متخصصان و پژوهشگران امنیت، حملهکنندگان به سازمانها نیز در پی استفاده از هوش مصنوعی برای بهبود روشهای حملهی خود هستند. به این منظور، برخی به احتمال استفاده از هوش مصنوعی برای تولید حملات ماحیگیری (فیشینگ) هدفمندتر اشاره میکنند. همچنین، استفاده از هوش مصنوعی برای تولید خودکار بدافزارها چه از طریق ترکیب بدافزارهای قدیمیتر و کوچکتر و چه از طریق تولید بدافزارهای کاملا نو و مستقل از طریق هوش مصنوعیهای Generative قابل احصا به نظر میرسد. علاوه بر این موارد، به زودی شاهد هوشهای مصنوعی مبتنی بر چتبات هستیم که از طریق تماس تلفنی و یا پیامهای متنی به اجرای حملات مهندسی اجتماعی علیه کاربران میپردازند. این ابزارها میتوانند به شدت هزینه حملات مهندسی اجتماعی را کاهش دهند و همچنین از طریق بررسی سابقه و شبکههای اجتماعی قربانیان خود، این حملات را هدفمندتر و موفقتر دنبال کنند.
با پر استفادهشدن ابزارهای مبتنی هوش مصنوعی و آنکه بسیاری از کاربران فضای مجازی اطلاعات مهمی را با این ابزارها به اشتراک میگذارند؛ حمله به الگوریتمهای هوش مصنوعی به جدیدتر علاقهمندی هکرها تبدیل شدهاست.
اولین نوع از حملات که علیه ابزارهای هوشمصنوعی انجام شد، تلاش برای تولید ورودیهایی بود که این الگوریتمهای هوشمند را به خطا بیاندازد. به عنوان مثال، تحقیقاتی تلاش کردهاند تا با تولید تیشرتهایی الگوریتمهای تشخیص انسان را به چالش بکشند و یا یک با قرارداد یک شی در کنار اشیاء مد نظر خود منجر به تشخیص اشتباه Classifierهای مبتنی بر هوش مصنوعی شوند.
این مثالهای خصمانه میتوانند، استفاده الگوریتمهای هوشمصنوعی را در ابزارها و محصولاتی که با ایمنی کاربران خود سروکار دارند، مختل کنند. در این خصوص؛ ماشینهای خودرانی را تصور کنید که در مواجهه با یک شی که یک حملهکننده در کنار جاده قرارداده است، مسیر جاده را اشتباه تشخیص داده و از مسیر منحرف شوند.
در این نوع از حمله، حملهکننده تلاش میکند دادههای مسمومی به الگوریتمهای یادگیری ماشین تحمیل کند که منجر به یادگیری مدلی نادقیق شود. این مدلها، ممکن است در تمام حالات رفتار درست و دقیقی داشته باشند، اما به دلیل وجود دادههای مسموم، تنها در موارد مد نظر حملهکننده خروجی غلط داشته باشند.
این روش از حمله، میتواند توسط مجموعههایی که مجموعهدادههای خود را منتشر میکنند اتفاق افتاده و یا در الگوریتمهای یادگیری برخط (Online Learning) در گذر زمان و با وارد کردن دادههای مسموم توسط حملهکنند بروز کند.
بسیاری از پژوهشگران حوزه هوش مصنوعی، تلاش میکنند الگوریتمهای خود را که دارای دقت بالا هستند به عنوان سرویس در اختیار کاربران تجاری قراردهند تا امکان استفاده از این الگوریتمها و کسب درامد وجود داشته باشند. در چنین شرایطی؛ حملهکنندهها تلاش میکنند از طریق تولید پرسوجوهای زیاد و ارسال آنها برای سرویس ارائهشده مدل آموزش دیده را تخمینزده و مشابه آن را تولیدکنند. این حمله میتواند با دو هدف تشخیص نقاط ضعف مدل و یا نقض کپیرایت کاربران اتفاق بیافتد.
سخن آخر: تاثیر هوش مصنوعی بر آینده ما انسانها غیرقابل چشمپوشی است؛ اما توجه به آن در کاربردهای امنیتی نهایتا میتواند منجر به بهبود امنیت سازمانها شده و در عینحال استفاده از الگوریتمهای هوش مصنوعی در کاربردهای ایمنی-بحرانی (Safety Critical) را واقعگرایانهتر کند.