اتومبیل خودران تسلا فریب داده شد تا قانون شکنی کند
یک تکه دو اینچی چسب، دوربینهای خودرو تسلا را فریب داد تا این خودرو به اشتباه افزایش سرعت دهد.
محققین شرکت امنیت رایانهای McAfee چندین خودروی تسلا را فریب دادند تا 50 مایل بر ساعت به سرعت خود بیفزایند. آنها، یک تابلوی محدودیت سرعت را به صورتی که برای افراد چندان قابل تشخیص نباشد اندکی دستکاری کردند و با این کار باعث فریب خوردن سیستم دوربین Mobileye EyeQ3 خودرو شدند.
این تحقیقات جدید شرکت مکآفی نشان میدهد که ممکن است تکنیک یادگیری ماشین خصمانه، (Adversarial Machine Learning) سیستمهای اتومبیل خودران را مختل کند و در نتیجه یک چالش امنیتی برای افرادی که امیدوار به تجاری سازی این فناوری هستند، به وجود آید.
به گفته Steve Povolny (استیو پولونی) و Shivangee Trivedi (شیوانگی تریودی)، اعضای تیم پیشرفته تحقیقاتی حوزه تهدیدات از شرکت مکآفی، سیستمهای دوربین Mobileye EyeQ3 علائم محدودیت سرعت را میخوانند و اطلاعات به دست آمده را به فیچرهای سیستم خودران مانند کروزکنترل اتوماتیک در تسلا میرسانند.
محققان برچسب کوچک و تقریبا غیرقابل مشاهدهاییای را بر روی تابلوی علامت محدودیت سرعت چسباندند. بنابراین هنگام تست، دوربین خودرو تسلا مدل X سال 2016 و همچنین مدل S همان سال به جای عدد 35 روی تابلو عدد را 85 خوانده و 50 مایل بر ساعت افزایش سرعت گرفتند.
این جدید ترین مورد میان انبوهی از تحقیقات در حال افزایش است که نشان میدهد، چگونه سیستمهای یادگیری ماشین در شرایط حساس میتوانند مورد حمله قرار گرفته و فریب خورند.
در طی یک پروسه تحقیقاتی 18 ماهه، تریودی و پولونی نمونههایی از حملات خصمانه (روشی پژوهشی در زمینه یادگیری ماشین) را با جزئیات دقیق پیادهسازی کردند. از این نمونهها میتوان به تحقیق استادی از دانشگاه UC Berkely، داون سانگ، اشاره کرد که با استفاده از برچسبهایی باعث شده بود یک اتومبیل خودران کلمهی توقف بر روی تابلو را با علامت حداکثر سرعت مجاز ۴۵ مایل بر ساعت اشتباه بگیرد. همچنین سال گذشته، هکرها در یک حمله خصمانه با قرار دادن برچسبهایی در طی مسیر جاده، یک خودرو تسلا را به تغییر لاین اشتباهی وادار کرده و در الگوریتم های یادگیری ماشین آن اخلال ایجاد کردند.
به اظهار پولونی: "دلیل تحقیقات ما پیرامون چنین موضوعی این است که وظایفی را که اکنون توسط انسانها انجام میشوند قرار است در آینده توسط سیستمهای هوشمند انجام گیرد. لذا اگر ما از قبل در مورد چنین حملاتی آگاه نبوده و در نحوه طراحی سیستمها دقت لازم را به خرج ندهیم، در آینده خیل عظیمی از رایانههای بهم پیوسته و تاثیرگذاری خواهیم داشت که آسیب پذیر و قابل دستکاری بوده و میتوانند مورد حمله قرار گیرند."
با افزایش سیستمهای مستقل، این مشکل فراتر از الگوریتمهای یادگیری ماشین در وسایل نقلیه رفته است. تحقیقی در ماه مارس 2019 نشان داد سیستمهای یادگیری ماشین در حوزه پزشکی نیز فریب خورده و تشخیص اشتباهی دادند.
هر دو شرکت تسلا و Mobileye از تحقیق مکآفی درفیآا سال گذشته آگاه شده بودند. تسلا یافتههای مک آفی را تأیید کرده ولی بیان کرد که مشکلات در آن نسل از سخت افزارها قابل برطرف شدن نیستند. یک سخنگوی Mobileye با بیان اینکه علامت تغییر یافته حتی میتواند یک انسان را نیز در خواندن عدد به اشتباه بیندازد، سعی در کمرنگ ساختن تحقیق کرد. این شرکت فریب دوربین را نوعی حمله به سیستم ندانست و اظهار داشت علی رغم نقشی که دوربین در کنترل کروز تسلا ایفا میکند، آن برای رانندگی مستقل طراحی نشده است.
"فناوری خودروهای خودمختار تنها متکی به سنسورها نیستند بلکه از فناوریها و دادههای متعددی (مانند نقشه شلوغیها) نیز کمک میگیرند، تا اطمینان لازم از دادههای دریافتی سنسورهای دوربین فراهم آید و در نتیجه دارای ایمنی بیشتری باشند."
از آن زمان به بعد تسلا به استفاده از دوربینهای اختصاصی خود در خودروهای جدیدش روی آورده و Mobileye چندین نسخه جدید از دوربینهای خود را منتشر کرده که در تستهای اولیه در مقابل این حمله آسیبپذیر نبودند.
پولونی بیان کرد: "هنوز تعداد قابل توجهی از اتومبیلهای تسلا با سخت افزار آسیب پذیر در حال استفاده هستند." او همچنین اشاره کرد خودروهای تسلا با نسخه اولیه سخت افزار را نمیتوان به سخت افزار جدیدتر ارتقا داد.
وی اضافه کرد: "کاری که ما سعی در انجام آن داریم این است که در تلاش هستیم تا هم برای مصرف کنندگان و هم برای فروشندگان در مورد انواع نقصهای ممکن ایجاد آگاهی کنیم. هدف ما گسترش ترس و یا جلب توجه نمیباشد."
ترجمه مطلب Hackers can trick a Tesla into accelerating by 50 miles per hour برای نشریه لاجیسیا
مطلبی دیگر از این انتشارات
ارتش سایبری ایران
مطلبی دیگر از این انتشارات
انقلاب علوم شناختی
مطلبی دیگر از این انتشارات
کرونا ویروس و "اپیدمی اطلاعات" در رسانههای اجتماعی