افزایش امنیت سایبری با الگوریتم یادگیری ماشینی

فناوری یادگیری ماشینی (ML) روزبه‌روز در حال پیشرفت بوده و در انواع مختلفی از حوزه‌ها مانند پردازش اطلاعات، حمل‌ونقل خودمختار و تحلیل تصویر مورد استفاده قرار می‌گیرد. با وجود این در صورت سو استفاده از الگوریتم‌ها یا تحریف آن ممکن است آسیب جانی یا مالی جبران‌ناپذیری رخ بدهد. در حال حاضر توجه کافی به امنیت بسترهای یادگیری ماشینی و امکان دست‌کاری و عملکرد اشتباه آن‌ها وجود ندارد.

افزایش امنیت سایبری با الگوریتم یادگیری ماشینی
افزایش امنیت سایبری با الگوریتم یادگیری ماشینی


برای نمونه امکان تفسیر اشتباه تابلوهای راهنمایی و رانندگی توسط خودروهای بی راننده و شکل‌گیری تصادفات مرگ‌بار وجود دارد. همچنین در زمینه پردازش و طبقه‌بندی تصاویر، قرار دادن پیکسل‌های رنگی در بخش‌های خاصی از محتوا می‌تواند به عملکرد ناصحیح سیستم منجر شود.

سازمان دارپا برای مقابل با چالش یاد شده و حفاظت از الگوریتم‌های یادگیری ماشینی چند سال قبل پروژه «تضمین پایداری هوش مصنوعی در برابر خرابکاری یا گارد» (GARD) را راه‌اندازی کرد. همچنین شرکت اینتل و موسسه فناوری جورجیا نیز به عنوان مراکزی که روی این طرح فعالیت می‌کنند انتخاب شدند. اینتل در طول 4 سال گذشته به عنوان پیمان‌کار اصلی پروژه به حساب آمده، چندین میلیون دلار برای حفاظت از انجام حملات سایبری به الگوریتم‌های یادگیری ماشینی هزینه کرده است.

اقدامات دفاعی فعلی برای تنها برای حفاظت در برابر حملات خصمانه خاص و از پیش تعریف شده طراحی شده‌اند؛ اما این مسئله باعث می‌شود اگر حمله‌ای خارج از محدوده تعریف شده رخ بدهد، الگوریتم‌ها همچنان آسیب‌پذیر باقی بمانند. دارپا پروژه گارد در نظر دارد یک‌راه کار دفاعی متفاوت ایجاد کند. بستری دفاعی که انواع حملات احتمالی را در سناریوهای مختلف در نظر گرفته، طبقه‌بندی می‌کند و به مرور زمان آن را بهبود می‌دهد.

هدف اصلی پروژه گارد ایجاد پایه‌های نظری سامانه‌های یادگیری ماشینی است که نه تنها می‌توانند آسیب‌پذیری‌ها را به منظور تقویت عملکرد خود شناسایی کنند؛ بلکه امکان ایجاد یک دفاع مؤثر در برابر حملات خصمانه را خواهند داشت.

اینتل و جورجیا در فاز اول در فاز اول در تلاش هستند تا فناوری‌های تشخیص اشیا را از طریق ویژگی‌های فضایی، زمانی و مکانی در تصاویر و ویدئو تقویت کنند. با وجود این زمان به پایان رسیدن پروژه اعلام نشده است.