من ایلان ماسک، مدیر اجرایی تسلا، در ژانویه گفت، اگر امسال به رانندگی کاملاً ایمن تر از یک انسان دست یابیم، شوکه خواهیم شد. برای هر کسی که تفسیر ماسک را دنبال میکند، این ممکن است آشنا به نظر برسد. در سال 2020، او در همان سال وعده خودروهای خودران را داد و گفت: “هیچ چالش اساسی وجود ندارد.” در سال 2019، او قول داد که تسلاس بتواند تا سال 2020 رانندگی کند و به یک ناوگان 1 متری “روباتاکسی” تبدیل شود. او هر سال پیش بینی های مشابهی را به سال 2014 انجام داده است.
از اواخر سال 2020، تسلا آزمایشهای آزمایشی نرمافزار «Full Self-Driving» (FSD) خود را به حدود 60000 مالک تسلا گسترش داد که باید یک تست ایمنی را پشت سر بگذارند و 12000 دلار برای این امتیاز بپردازند. مشتریان فنآوری خودکار کمک راننده را آزمایش میکنند و به اصلاح آن قبل از عرضه عمومی کمک میکنند.
اندرو مینارد، مدیر آزمایشگاه نوآوری ریسک دانشگاه ایالتی آریزونا، میگوید با عرضه بتا، تسلا از کتاب بازی شرکتهای نرمافزار پیروی میکند: «در جایی که ایده این است که مردم را وادار به رفع مشکلات کنید». مشکل این است که وقتی نرم افزار خراب می شود، کامپیوتر را مجددا راه اندازی می کنید. وقتی یک ماشین تصادف می کند، کمی جدی تر است.»
قرار دادن فناوری نوپا در دست آزمایشگران آموزش ندیده یک رویکرد غیرمتعارف برای صنعت خودروهای خودران (AV) است. شرکتهای دیگر مانند Waymo متعلق به آلفابت، کروز تحت حمایت جنرال موتورز و استارتآپ AV Aurora از اپراتورهای ایمنی برای آزمایش فناوری در مسیرهای از پیش تعیینشده استفاده میکنند. در حالی که این اقدام اعتبار پوپولیستی تسلا را نزد طرفداران تقویت کرده است، اما از نظر شهرت خطرناک است. از زمانی که فناوری خود را در اختیار مردم قرار داده است، جریانی از ویدئوها که رفتارهای بی پروا FSD را مستند می کند، بازدیدهای زیادی را در فضای آنلاین به خود اختصاص داده است.
ویدئویی از یک ماشین در حالت FSD وجود دارد انحراف شدید به سمت ترافیک روبرو، راننده را وادار می کند تا از جاده خارج شود و به یک مزرعه منحرف شود. اونی که ماشین رو مکررا نشون میده تلاش برای روشن کردن ریل قطار و به عابران پیاده. مورد دیگری که راننده را در تلاش برای به دست آوردن مجدد کنترل ماشین پس از اینکه سیستم از او می خواهد تا کنترل ماشین را به دست بگیرد، می گیرد. آنچه به نظر می رسد اولین تصادف با FSD باشد در نوامبر سال گذشته به اداره ملی ایمنی ترافیک بزرگراه ایالات متحده (NHTSA) گزارش شد. هیچ کس آسیب ندیده است، اما خودرو “به شدت آسیب دیده”.
تیلور اوگان، مالک FSD تسلا و مدیر اجرایی Snow Bull Capital میگوید FSD در رانندگی در بزرگراهها مهارت دارد، جایی که به معنای واقعی کلمه کاملاً ساده است. او میگوید در خیابانهای پیچیدهتر درون شهر، این سیستم غیرقابل پیشبینیتر است. قرار است بهروزرسانیهای مداوم نرمافزار، اشکالات را برطرف کند. به عنوان مثال، NHTSA تسلا را مجبور کرد تا از اجرای سیستم غیرقانونی «ایستهای غلتشی» جلوگیری کند (حرکت آهسته از طریق علامت توقف بدون توقف کامل، در حالی که مشکل «ترمز غیرمنتظره» موضوع یک تحقیق فعلی است. در Ogan’s با این حال، تجربه آزمایش FSD، “من حتی ندیده ام که بهتر شود. فقط کارهای احمقانه تری را با اطمینان بیشتری انجام می دهد.”
مینارد میگوید استعاره «محرک یادگیرنده» برای برخی از مسائل FSD صدق میکند، اما زمانی که این فناوری درگیر رفتارهای غیرانسانی است، از هم میپاشد. به عنوان مثال، عدم توجه به نزدیک شدن خطرناک به عابران پیاده و زمانی که یک تسلا به ستونی که FSD نتوانست آن را ثبت کند، شخم زده است. مشکلات مشابهی در نرم افزار Autopilot تسلا پدیدار شده است که به دلیل عدم توانایی خودروها در «دیدن» وسایل نقلیه اضطراری پارک شده، در حداقل 12 تصادف (با یک کشته و 17 جراحت) دخیل بوده است.
دلایلی وجود دارد که باور کنیم ویدیوهایی که به صورت آنلاین راه مییابند، از جذابتر هستند. نه تنها آزمایشکنندگان تسلا مشتری هستند، بلکه ارتشی از طرفداران فوقالعاده به عنوان یک عامل بازدارنده برای به اشتراک گذاشتن هر چیزی منفی عمل میکنند. هر گونه گزارشی از رفتار بد FSD می تواند موجی از خشم را برانگیزد. هر پست انتقادی در باشگاه موتورز تسلا، انجمنی برای رانندگان تسلا، ناگزیر توسط افرادی که کاربران را به خاطر تصادفات مقصر می دانند یا آنها را متهم به شکست تسلا می کنند، مورد استقبال قرار می گیرد. اوگان میگوید: «مردم از این که ایلان ماسک FSD را که هزینه آن را پرداخت کردهاند، از بین ببرد و مردم به آنها حمله کنند، وحشت دارند.
اد نیدرمایر، نویسنده کتاب، می گوید: این به محافظت از تسلا در برابر انتقاد کمک می کند مسخره: داستان بدون رنگ تسلا موتورز، زمانی که شروع به گزارش در مورد شرکت کرد، توسط یک شبه نظامی آنلاین بمباران شد. او میگوید: «در طول تاریخ تسلا، این ایمان و احساس اجتماعی برای بقای تسلا کاملاً حیاتی بوده است. او اضافه میکند که دلیل این امر این است که ماسک میتواند بارها و بارها ادعا کند که یک سال تا رسیدن به رانندگی کاملاً خودمختار بدون از دست دادن اعتماد طرفداران فاصله دارد.
باما این فقط تسلا نیست که ضرب الاجل رانندگی خودران خود را از دست داده است. کروز، وایمو، تویوتا و هوندا همگی اعلام کردند که تا سال 2020 خودروهای کاملاً خودران را روانه بازار خواهند کرد. چی شد؟
متیو اوری، مدیر تحقیقات در تاچام ریسرچ میگوید: «شماره یک این است که این چیزها سختتر از آن چیزی است که تولیدکنندگان تصور میکنند. در حالی که حدود 80 درصد از خودرانی ها نسبتاً ساده هستند – باعث می شوند خودرو از خط جاده پیروی کند، به سمت خاصی بچسبد، از تصادف جلوگیری کند – 10 درصد بعدی شامل موقعیت های دشوارتری مانند دوربرگردان ها و تقاطع های پیچیده است. اوری می گوید: «10 درصد آخر واقعاً دشوار است. “آن وقت است که می دانید، یک گاو دارید که در وسط جاده ایستاده و نمی خواهد حرکت کند.”
این آخرین 20٪ است که صنعت AV در آن گیر کرده است، به خصوص 10٪ نهایی که مشکل شیطانی “قاب های لبه” را پوشش می دهد. اینها رویدادهای نادر و غیرمعمولی هستند که در جاده اتفاق میافتند، مانند پریدن توپ در خیابان و به دنبال آن کودکی که در حال دویدن است. کارهای جاده ای پیچیده که برای عبور از آن نیاز به سوار شدن ماشین به حاشیه دارد. گروهی از معترضان که تابلوهایی در دست دارند. یا اون گاو لجباز
خودروهای خودران بر ترکیبی از قوانین رمزگذاری شده اولیه مانند “همیشه در چراغ قرمز توقف کن” و نرم افزار یادگیری ماشینی متکی هستند. الگوریتمهای یادگیری ماشینی، انبوهی از دادهها را جذب میکنند تا بتوانند رانندگی ماهرانه را «یاد بگیرند». از آنجایی که موارد لبه به ندرت در چنین دادههایی ظاهر میشوند، خودرو یاد نمیگیرد که چگونه به درستی پاسخ دهد.
نکته ای که در مورد موارد لبه وجود دارد این است که آنها خیلی نادر نیستند. “ممکن است برای یک راننده فردی نادر باشد، [but] ملانی میچل، دانشمند کامپیوتر و استاد پیچیدگی در مؤسسه سانتافه، میگوید: «اگر از تمام درایورهای دنیا به طور میانگین استفاده کنید، این نوع موارد لبه اغلب برای کسی اتفاق میافتد».
در حالی که انسانها میتوانند از یک سناریو به سناریوی دیگر تعمیم دهند، اگر یک سیستم خودران به نظر میرسد که بر یک موقعیت خاص «تسلط» داشته باشد، لزوماً به این معنی نیست که میتواند آن را در شرایط کمی متفاوت تکرار کند. این مشکلی است که تا کنون پاسخی برای آن وجود ندارد. میچل می گوید: «این یک چالش است که سعی کنیم به سیستم های هوش مصنوعی عقل سلیم بدهیم، زیرا ما حتی نمی دانیم که چگونه در خودمان کار می کند.
خود ماسک به این موضوع اشاره کرده است: «بخش عمدهای از هوش مصنوعی در دنیای واقعی باید حل شود تا کار خودران بدون نظارت و تعمیم داده شود.» او در سال 2019 در توییتی نوشت. با انسان احتمالاً هنوز به بازار نخواهد آمد. سایر سازندگان AV از نقشههای با کیفیت بالا – ترسیم خطوط جادهها و پیادهروها، قرار دادن علائم راهنمایی و رانندگی و محدودیتهای سرعت – برای رفع بخشی از این مشکل استفاده میکنند. اما این نقشهها باید دائماً به روز شوند تا با شرایط همیشه در حال تغییر جادهها سازگاری داشته باشند و حتی در آن زمان نیز غیرقابل پیشبینی باقی میماند.
فیلیپ کوپمن، استادیار مهندسی برق و کامپیوتر در دانشگاه کارنگی ملون، میگوید، مشکل لبهای با فناوری AV ترکیب میشود که در صورت اشتباه «با اطمینان کامل» عمل میکند. “این واقعا بد است که بداند وقتی نمی داند.” خطرات این امر در تجزیه و تحلیل تصادف Uber که در آن یک نمونه اولیه AV الین هرزبرگ را در حالی که دوچرخه خود را در جاده ای در آریزونا در حال پیاده روی بود، در سال 2018 کشت. طبقه بندی های مختلف فرم هرزبرگ – “خودرو”، “دوچرخه”، “سایر” – تا 0.2 ثانیه قبل از تصادف.
تیهدف نهایی سازندگان AV این است که خودروهایی بسازند که ایمن تر از وسایل نقلیه انسان محور باشند. در ایالات متحده، به ازای هر 100 متر مایل رانندگی توسط یک انسان (شامل رانندگی در حالت مستی) حدود یک مرگ وجود دارد. کوپمن می گوید که سازندگان AV باید این را شکست دهند تا ثابت کنند فناوری آنها از انسان ایمن تر است. اما او همچنین معتقد است که معیارهای تا حدودی قابل مقایسه مورد استفاده در صنعت، مانند دادههای جداسازی (هر چند وقت یکبار یک انسان برای جلوگیری از تصادف نیاز به کنترل دارد)، مهمترین مسائل ایمنی AV را برطرف میکند.
«ایمنی این نیست که بیشتر اوقات درست کار کنید. کوپمن میگوید: ایمنی در مورد موارد نادری است که به درستی کار نمیکند. “باید 99.999999999٪ مواقع کار کند. شرکتهای AV هنوز در حال کار بر روی 9 مورد اول هستند و تعداد زیادی 9 مورد دیگر باقی مانده است. به ازای هر 9 نفر، دستیابی به آن 10 برابر دشوارتر است.”
برخی از کارشناسان معتقدند که سازندگان AV مجبور نیستند به طور کامل هوش سطح انسان را برای عرضه وسایل نقلیه خودران کنترل کنند. میچل میگوید: «من فکر میکنم اگر هر خودرویی یک خودروی خودران بود، و جادهها همگی کاملاً نقشهبرداری میشدند و هیچ عابر پیادهای در اطراف نبود، خودروهای خودران بسیار قابل اعتماد و قابل اعتماد خواهند بود». “فقط این است که کل این اکوسیستم از انسان ها و سایر خودروهایی که توسط انسان ها رانده می شوند وجود دارد که هوش مصنوعی هنوز هوش لازم برای مقابله با آنها را ندارد.”
در شرایط مناسب، مانند جادههای آرام و آب و هوای مناسب، خودروهای خودران عمدتاً میتوانند عملکرد خوبی داشته باشند. به این ترتیب Waymo میتواند یک سرویس روباتاکسی محدود را در بخشهایی از فینیکس، آریزونا اجرا کند. با این حال، این ناوگان هنوز درگیر تصادفات جزئی بوده است و یک وسیله نقلیه بارها توسط مجموعه ای از مخروط های ترافیکی با وجود کمک یک کارگر راه دور دچار گیر کرده است. (یکی از مدیران Waymo ادعا کرد که از وقوع این حوادث بیشتر از یک راننده انسانی آگاه نبودند.)
علیرغم چالش ها، صنعت AV با سرعت در حال پیشرفت است. سقوط اوبر به طور موقت اثری هشیار کننده داشت. تولیدکنندگان پس از آن آزمایشات خود را به دلیل مطبوعات منفی به حالت تعلیق درآوردند و فرماندار آریزونا مجوز آزمایش اوبر را به حالت تعلیق درآورد. اوبر و یک شرکت سواری دیگر، لیفت، هر دو بخش های خودران خود را فروختند.
اما امسال بازگشتی به غرور داشته است – با بیش از 100 میلیارد دلار سرمایه گذاری در 10 سال گذشته، صنعت به سختی می تواند از پس آن بربیاید. خودروسازان جنرال موتورز و جیلی و شرکت AV Mobileye گفته اند که مردم ممکن است در اوایل سال 2024 بتوانند خودروهای خودران بخرند. کروز و Waymo هر دو قصد دارند امسال عملیات روباتاکسی تجاری را در سانفرانسیسکو راه اندازی کنند. Aurora همچنین قصد دارد طی دو تا سه سال آینده وسایل نقلیه کاملاً خودمختار را در ایالات متحده مستقر کند.
اسبرخی از کارشناسان ایمنی نگران فقدان مقررات حاکم بر این گام بعدی جسورانه هستند. کوپمن میگوید در حال حاضر، هر شرکتی «اساساً یک تصادف رایگان دریافت میکند»، و اضافه میکند که سیستم نظارتی در ایالات متحده مبتنی بر اعتماد به سازنده AV است تا زمانی که یک تصادف جدی رخ دهد. او به استارتآپ Uber و AV Pony.ai اشاره میکند که مجوز تست بدون رانندهاش اخیراً در کالیفرنیا پس از یک برخورد جدی با یکی از وسایل نقلیه آن به حالت تعلیق درآمد.
یکی از عوارض جانبی اشتراکگذاری فناوری تسلا با مشتریان این است که تنظیمکنندهها به آن توجه میکنند. تسلا تاکنون از الزامات سختگیرانهتر سایر سازندگان AV مانند گزارش تصادفات و خرابیهای سیستم و استفاده از متخصصان ایمنی آموزشدیده بهعنوان آزمایشکننده اجتناب کرده است، زیرا این ادعا که سیستمهایش ابتداییتر هستند. اما دپارتمان وسایل نقلیه موتوری کالیفرنیا، تنظیم کننده رانندگی خودمختار این ایالت، در حال بررسی تغییر این سیستم است، تا حدی به دلیل ویدیوهای خطرناکی که از این فناوری در حال اجرا وجود دارد و همچنین تحقیقات NHTSA در مورد تسلا.
کمبود مقررات تا کنون، فقدان اجماع جهانی در این فضا را برجسته می کند. مینارد میگوید این سوال این است که “آیا نرمافزار به اندازهای سریع رشد میکند که قبل از اینکه اتفاق بدی بیفتد و فرش را از کل شرکت بیرون بکشد، به نقطهای برسد که هم قابل اعتماد باشد و هم قانونگذاران به آن چراغ سبز نشان دهند؟”
منبع : عصر فناوری