اتومبیل خودران تسلا فریب داده شد تا قانون شکنی کند

یک تکه دو اینچی چسب، دوربین‌های خودرو تسلا را فریب داد تا این خودرو به اشتباه افزایش سرعت دهد.

محققین شرکت امنیت رایانه‌ای McAfee چندین خودروی تسلا را فریب دادند تا 50 مایل بر ساعت به سرعت خود بیفزایند. آن‌ها، یک تابلوی محدودیت سرعت را به صورتی که برای افراد چندان قابل تشخیص نباشد اندکی دستکاری کردند و با این کار باعث فریب خوردن سیستم دوربین Mobileye EyeQ3 خودرو شدند.

این تحقیقات جدید شرکت مک‌آفی نشان می‌دهد که ممکن است تکنیک یادگیری ماشین خصمانه، (Adversarial Machine Learning) سیستم‌های اتومبیل‌ خودران را مختل کند و در نتیجه یک چالش امنیتی برای افرادی که امیدوار به تجاری سازی این فناوری هستند، به وجود ‌آید.

به گفته Steve Povolny (استیو پولونی) و Shivangee Trivedi (شیوانگی تریودی)، اعضای تیم پیشرفته تحقیقاتی حوزه تهدیدات از شرکت مک‌آفی، سیستم‌های دوربین Mobileye EyeQ3 علائم محدودیت سرعت را می‌خوانند و اطلاعات به دست آمده را به فیچر‌های سیستم خودران مانند کروزکنترل اتوماتیک در تسلا می‌رسانند.

محققان برچسب کوچک و تقریبا غیرقابل مشاهده‌اییای را بر روی تابلوی علامت محدودیت سرعت چسباندند. بنابراین هنگام تست، دوربین خودرو تسلا مدل X سال 2016 و همچنین مدل S همان سال به جای عدد 35 روی تابلو عدد را 85 خوانده و 50 مایل بر ساعت افزایش سرعت گرفتند.

این جدید ‌ترین مورد میان انبوهی از تحقیقات در حال افزایش است که نشان می‌دهد، چگونه سیستم‌های یادگیری ماشین در شرایط حساس می‌توانند مورد حمله قرار گرفته و فریب خورند.

در طی یک پروسه تحقیقاتی 18 ماهه، تریودی و پولونی نمونه‌هایی از حملات خصمانه (روشی پژوهشی در زمینه یادگیری ماشین) را با جزئیات دقیق پیاده‌سازی کردند. از این نمونه‌ها می‌توان به تحقیق استادی از دانشگاه UC Berkely، داون سانگ، اشاره کرد که با استفاده از برچسب‌هایی باعث شده بود یک اتومبیل خودران کلمه‌ی توقف بر روی تابلو را با علامت حداکثر سرعت مجاز ۴۵ مایل بر ساعت اشتباه بگیرد. همچنین سال گذشته، هکرها در یک حمله خصمانه با قرار دادن برچسب‌هایی در طی مسیر جاده، یک خودرو تسلا را به تغییر لاین اشتباهی وادار کرده و در الگوریتم های یادگیری ماشین آن اخلال ایجاد کردند.

به اظهار پولونی: "دلیل تحقیقات ما پیرامون چنین موضوعی این است که وظایفی را که اکنون توسط انسان‌ها انجام می‌شوند قرار است در آینده توسط سیستم‌های هوشمند انجام گیرد. لذا اگر ما از قبل در مورد چنین حملاتی آگاه نبوده و در نحوه طراحی سیستم‌ها دقت لازم را به خرج ندهیم، در آینده خیل عظیمی از رایانه‌های بهم پیوسته و تاثیرگذاری خواهیم داشت که آسیب پذیر و قابل دستکاری بوده و می‌توانند مورد حمله قرار گیرند."

با افزایش سیستم‌های مستقل، این مشکل فراتر از الگوریتم‌های یادگیری ماشین در وسایل نقلیه رفته است. تحقیقی در ماه مارس 2019 نشان داد سیستم‌های یادگیری ماشین در حوزه پزشکی نیز فریب خورده و تشخیص اشتباهی دادند.

هر دو شرکت تسلا و Mobileye از تحقیق مک‌آفی درفی‌آا سال گذشته آگاه شده بودند. تسلا یافته‌های مک آفی را تأیید کرده ولی بیان کرد که مشکلات در آن نسل از سخت افزارها قابل برطرف شدن نیستند. یک سخنگوی Mobileye با بیان اینکه علامت تغییر یافته حتی می‌تواند یک انسان را نیز در خواندن عدد به اشتباه بیندازد، سعی در کمرنگ ساختن تحقیق کرد. این شرکت فریب دوربین را نوعی حمله به سیستم ندانست و اظهار داشت علی رغم نقشی که دوربین در کنترل کروز تسلا ایفا می‌کند، آن برای رانندگی مستقل طراحی نشده است.

"فناوری خودروهای خودمختار تنها متکی به سنسور‌ها نیستند بلکه از فناوری‌ها و داده‌های متعددی (مانند نقشه شلوغی‌ها) نیز کمک می‌گیرند، تا اطمینان لازم از داده‌های دریافتی سنسور‌های دوربین فراهم آید و در نتیجه دارای ایمنی بیشتری باشند."

از آن زمان به بعد تسلا به استفاده از دوربین‌های اختصاصی خود در خودرو‌های جدیدش روی آورده و Mobileye چندین نسخه جدید از دوربین‌های خود را منتشر کرده که در تست‌های اولیه در مقابل این حمله آسیب‌پذیر نبودند.

پولونی بیان کرد: "هنوز تعداد قابل توجهی از اتومبیل‌های تسلا با سخت افزار آسیب پذیر در حال استفاده هستند." او همچنین اشاره کرد خودرو‌های تسلا با نسخه اولیه سخت افزار را نمی‌توان به سخت افزار جدیدتر ارتقا داد.

وی اضافه کرد: "کاری که ما سعی در انجام آن داریم این است که در تلاش هستیم تا هم برای مصرف کنندگان و هم برای فروشندگان در مورد انواع نقص‌های ممکن ایجاد آگاهی کنیم. هدف ما گسترش ترس و یا جلب توجه نمی‌باشد."



ترجمه مطلب Hackers can trick a Tesla into accelerating by 50 miles per hour برای نشریه لاجیسیا