محمد سعیدی
محمد سعیدی
خواندن ۱۰ دقیقه·۳ سال پیش

ماجرای گیر کردن خودروهای خودران تسلا در لاین کند رو

من ایلان ماسک، مدیر اجرایی تسلا، در ژانویه گفت، اگر امسال به رانندگی کاملاً ایمن تر از یک انسان دست یابیم، شوکه خواهیم شد. برای هر کسی که تفسیر ماسک را دنبال می‌کند، این ممکن است آشنا به نظر برسد. در سال 2020، او در همان سال وعده خودروهای خودران را داد و گفت: “هیچ چالش اساسی وجود ندارد.” در سال 2019، او قول داد که تسلاس بتواند تا سال 2020 رانندگی کند و به یک ناوگان 1 متری “روباتاکسی” تبدیل شود. او هر سال پیش بینی های مشابهی را به سال 2014 انجام داده است.

از اواخر سال 2020، تسلا آزمایش‌های آزمایشی نرم‌افزار «Full Self-Driving» (FSD) خود را به حدود 60000 مالک تسلا گسترش داد که باید یک تست ایمنی را پشت سر بگذارند و 12000 دلار برای این امتیاز بپردازند. مشتریان فن‌آوری خودکار کمک راننده را آزمایش می‌کنند و به اصلاح آن قبل از عرضه عمومی کمک می‌کنند.

اندرو مینارد، مدیر آزمایشگاه نوآوری ریسک دانشگاه ایالتی آریزونا، می‌گوید با عرضه بتا، تسلا از کتاب بازی شرکت‌های نرم‌افزار پیروی می‌کند: «در جایی که ایده این است که مردم را وادار به رفع مشکلات کنید». مشکل این است که وقتی نرم افزار خراب می شود، کامپیوتر را مجددا راه اندازی می کنید. وقتی یک ماشین تصادف می کند، کمی جدی تر است.»

قرار دادن فناوری نوپا در دست آزمایشگران آموزش ندیده یک رویکرد غیرمتعارف برای صنعت خودروهای خودران (AV) است. شرکت‌های دیگر مانند Waymo متعلق به آلفابت، کروز تحت حمایت جنرال موتورز و استارت‌آپ AV Aurora از اپراتورهای ایمنی برای آزمایش فناوری در مسیرهای از پیش تعیین‌شده استفاده می‌کنند. در حالی که این اقدام اعتبار پوپولیستی تسلا را نزد طرفداران تقویت کرده است، اما از نظر شهرت خطرناک است. از زمانی که فناوری خود را در اختیار مردم قرار داده است، جریانی از ویدئوها که رفتارهای بی پروا FSD را مستند می کند، بازدیدهای زیادی را در فضای آنلاین به خود اختصاص داده است.

ویدئویی از یک ماشین در حالت FSD وجود دارد انحراف شدید به سمت ترافیک روبرو، راننده را وادار می کند تا از جاده خارج شود و به یک مزرعه منحرف شود. اونی که ماشین رو مکررا نشون میده تلاش برای روشن کردن ریل قطار و به عابران پیاده. مورد دیگری که راننده را در تلاش برای به دست آوردن مجدد کنترل ماشین پس از اینکه سیستم از او می خواهد تا کنترل ماشین را به دست بگیرد، می گیرد. آنچه به نظر می رسد اولین تصادف با FSD باشد در نوامبر سال گذشته به اداره ملی ایمنی ترافیک بزرگراه ایالات متحده (NHTSA) گزارش شد. هیچ کس آسیب ندیده است، اما خودرو “به شدت آسیب دیده”.

تیلور اوگان، مالک FSD تسلا و مدیر اجرایی Snow Bull Capital می‌گوید FSD در رانندگی در بزرگراه‌ها مهارت دارد، جایی که به معنای واقعی کلمه کاملاً ساده است. او می‌گوید در خیابان‌های پیچیده‌تر درون شهر، این سیستم غیرقابل پیش‌بینی‌تر است. قرار است به‌روزرسانی‌های مداوم نرم‌افزار، اشکالات را برطرف کند. به عنوان مثال، NHTSA تسلا را مجبور کرد تا از اجرای سیستم غیرقانونی «ایست‌های غلتشی» جلوگیری کند (حرکت آهسته از طریق علامت توقف بدون توقف کامل، در حالی که مشکل «ترمز غیرمنتظره» موضوع یک تحقیق فعلی است. در Ogan’s با این حال، تجربه آزمایش FSD، “من حتی ندیده ام که بهتر شود. فقط کارهای احمقانه تری را با اطمینان بیشتری انجام می دهد.”

مینارد می‌گوید استعاره «محرک یادگیرنده» برای برخی از مسائل FSD صدق می‌کند، اما زمانی که این فناوری درگیر رفتارهای غیرانسانی است، از هم می‌پاشد. به عنوان مثال، عدم توجه به نزدیک شدن خطرناک به عابران پیاده و زمانی که یک تسلا به ستونی که FSD نتوانست آن را ثبت کند، شخم زده است. مشکلات مشابهی در نرم افزار Autopilot تسلا پدیدار شده است که به دلیل عدم توانایی خودروها در «دیدن» وسایل نقلیه اضطراری پارک شده، در حداقل 12 تصادف (با یک کشته و 17 جراحت) دخیل بوده است.

دلایلی وجود دارد که باور کنیم ویدیوهایی که به صورت آنلاین راه می‌یابند، از جذاب‌تر هستند. نه تنها آزمایش‌کنندگان تسلا مشتری هستند، بلکه ارتشی از طرفداران فوق‌العاده به عنوان یک عامل بازدارنده برای به اشتراک گذاشتن هر چیزی منفی عمل می‌کنند. هر گونه گزارشی از رفتار بد FSD می تواند موجی از خشم را برانگیزد. هر پست انتقادی در باشگاه موتورز تسلا، انجمنی برای رانندگان تسلا، ناگزیر توسط افرادی که کاربران را به خاطر تصادفات مقصر می دانند یا آنها را متهم به شکست تسلا می کنند، مورد استقبال قرار می گیرد. اوگان می‌گوید: «مردم از این که ایلان ماسک FSD را که هزینه آن را پرداخت کرده‌اند، از بین ببرد و مردم به آنها حمله کنند، وحشت دارند.

اد نیدرمایر، نویسنده کتاب، می گوید: این به محافظت از تسلا در برابر انتقاد کمک می کند مسخره: داستان بدون رنگ تسلا موتورز، زمانی که شروع به گزارش در مورد شرکت کرد، توسط یک شبه نظامی آنلاین بمباران شد. او می‌گوید: «در طول تاریخ تسلا، این ایمان و احساس اجتماعی برای بقای تسلا کاملاً حیاتی بوده است. او اضافه می‌کند که دلیل این امر این است که ماسک می‌تواند بارها و بارها ادعا کند که یک سال تا رسیدن به رانندگی کاملاً خودمختار بدون از دست دادن اعتماد طرفداران فاصله دارد.

باما این فقط تسلا نیست که ضرب الاجل رانندگی خودران خود را از دست داده است. کروز، وایمو، تویوتا و هوندا همگی اعلام کردند که تا سال 2020 خودروهای کاملاً خودران را روانه بازار خواهند کرد. چی شد؟

متیو اوری، مدیر تحقیقات در تاچام ریسرچ می‌گوید: «شماره یک این است که این چیزها سخت‌تر از آن چیزی است که تولیدکنندگان تصور می‌کنند. در حالی که حدود 80 درصد از خودرانی ها نسبتاً ساده هستند – باعث می شوند خودرو از خط جاده پیروی کند، به سمت خاصی بچسبد، از تصادف جلوگیری کند – 10 درصد بعدی شامل موقعیت های دشوارتری مانند دوربرگردان ها و تقاطع های پیچیده است. اوری می گوید: «10 درصد آخر واقعاً دشوار است. “آن وقت است که می دانید، یک گاو دارید که در وسط جاده ایستاده و نمی خواهد حرکت کند.”

این آخرین 20٪ است که صنعت AV در آن گیر کرده است، به خصوص 10٪ نهایی که مشکل شیطانی “قاب های لبه” را پوشش می دهد. اینها رویدادهای نادر و غیرمعمولی هستند که در جاده اتفاق می‌افتند، مانند پریدن توپ در خیابان و به دنبال آن کودکی که در حال دویدن است. کارهای جاده ای پیچیده که برای عبور از آن نیاز به سوار شدن ماشین به حاشیه دارد. گروهی از معترضان که تابلوهایی در دست دارند. یا اون گاو لجباز

خودروهای خودران بر ترکیبی از قوانین رمزگذاری شده اولیه مانند “همیشه در چراغ قرمز توقف کن” و نرم افزار یادگیری ماشینی متکی هستند. الگوریتم‌های یادگیری ماشینی، انبوهی از داده‌ها را جذب می‌کنند تا بتوانند رانندگی ماهرانه را «یاد بگیرند». از آنجایی که موارد لبه به ندرت در چنین داده‌هایی ظاهر می‌شوند، خودرو یاد نمی‌گیرد که چگونه به درستی پاسخ دهد.

نکته ای که در مورد موارد لبه وجود دارد این است که آنها خیلی نادر نیستند. “ممکن است برای یک راننده فردی نادر باشد، [but] ملانی میچل، دانشمند کامپیوتر و استاد پیچیدگی در مؤسسه سانتافه، می‌گوید: «اگر از تمام درایورهای دنیا به طور میانگین استفاده کنید، این نوع موارد لبه اغلب برای کسی اتفاق می‌افتد».

در حالی که انسان‌ها می‌توانند از یک سناریو به سناریوی دیگر تعمیم دهند، اگر یک سیستم خودران به نظر می‌رسد که بر یک موقعیت خاص «تسلط» داشته باشد، لزوماً به این معنی نیست که می‌تواند آن را در شرایط کمی متفاوت تکرار کند. این مشکلی است که تا کنون پاسخی برای آن وجود ندارد. میچل می گوید: «این یک چالش است که سعی کنیم به سیستم های هوش مصنوعی عقل سلیم بدهیم، زیرا ما حتی نمی دانیم که چگونه در خودمان کار می کند.

خود ماسک به این موضوع اشاره کرده است: «بخش عمده‌ای از هوش مصنوعی در دنیای واقعی باید حل شود تا کار خودران بدون نظارت و تعمیم داده شود.» او در سال 2019 در توییتی نوشت. با انسان احتمالاً هنوز به بازار نخواهد آمد. سایر سازندگان AV از نقشه‌های با کیفیت بالا – ترسیم خطوط جاده‌ها و پیاده‌روها، قرار دادن علائم راهنمایی و رانندگی و محدودیت‌های سرعت – برای رفع بخشی از این مشکل استفاده می‌کنند. اما این نقشه‌ها باید دائماً به روز شوند تا با شرایط همیشه در حال تغییر جاده‌ها سازگاری داشته باشند و حتی در آن زمان نیز غیرقابل پیش‌بینی باقی می‌ماند.

فیلیپ کوپمن، استادیار مهندسی برق و کامپیوتر در دانشگاه کارنگی ملون، می‌گوید، مشکل لبه‌ای با فناوری AV ترکیب می‌شود که در صورت اشتباه «با اطمینان کامل» عمل می‌کند. “این واقعا بد است که بداند وقتی نمی داند.” خطرات این امر در تجزیه و تحلیل تصادف Uber که در آن یک نمونه اولیه AV الین هرزبرگ را در حالی که دوچرخه خود را در جاده ای در آریزونا در حال پیاده روی بود، در سال 2018 کشت. طبقه بندی های مختلف فرم هرزبرگ – “خودرو”، “دوچرخه”، “سایر” – تا 0.2 ثانیه قبل از تصادف.

تیهدف نهایی سازندگان AV این است که خودروهایی بسازند که ایمن تر از وسایل نقلیه انسان محور باشند. در ایالات متحده، به ازای هر 100 متر مایل رانندگی توسط یک انسان (شامل رانندگی در حالت مستی) حدود یک مرگ وجود دارد. کوپمن می گوید که سازندگان AV باید این را شکست دهند تا ثابت کنند فناوری آنها از انسان ایمن تر است. اما او همچنین معتقد است که معیارهای تا حدودی قابل مقایسه مورد استفاده در صنعت، مانند داده‌های جداسازی (هر چند وقت یک‌بار یک انسان برای جلوگیری از تصادف نیاز به کنترل دارد)، مهم‌ترین مسائل ایمنی AV را برطرف می‌کند.

«ایمنی این نیست که بیشتر اوقات درست کار کنید. کوپمن می‌گوید: ایمنی در مورد موارد نادری است که به درستی کار نمی‌کند. “باید 99.999999999٪ مواقع کار کند. شرکت‌های AV هنوز در حال کار بر روی 9 مورد اول هستند و تعداد زیادی 9 مورد دیگر باقی مانده است. به ازای هر 9 نفر، دستیابی به آن 10 برابر دشوارتر است.”

برخی از کارشناسان معتقدند که سازندگان AV مجبور نیستند به طور کامل هوش سطح انسان را برای عرضه وسایل نقلیه خودران کنترل کنند. میچل می‌گوید: «من فکر می‌کنم اگر هر خودرویی یک خودروی خودران بود، و جاده‌ها همگی کاملاً نقشه‌برداری می‌شدند و هیچ عابر پیاده‌ای در اطراف نبود، خودروهای خودران بسیار قابل اعتماد و قابل اعتماد خواهند بود». “فقط این است که کل این اکوسیستم از انسان ها و سایر خودروهایی که توسط انسان ها رانده می شوند وجود دارد که هوش مصنوعی هنوز هوش لازم برای مقابله با آنها را ندارد.”

در شرایط مناسب، مانند جاده‌های آرام و آب و هوای مناسب، خودروهای خودران عمدتاً می‌توانند عملکرد خوبی داشته باشند. به این ترتیب Waymo می‌تواند یک سرویس روباتاکسی محدود را در بخش‌هایی از فینیکس، آریزونا اجرا کند. با این حال، این ناوگان هنوز درگیر تصادفات جزئی بوده است و یک وسیله نقلیه بارها توسط مجموعه ای از مخروط های ترافیکی با وجود کمک یک کارگر راه دور دچار گیر کرده است. (یکی از مدیران Waymo ادعا کرد که از وقوع این حوادث بیشتر از یک راننده انسانی آگاه نبودند.)

علیرغم چالش ها، صنعت AV با سرعت در حال پیشرفت است. سقوط اوبر به طور موقت اثری هشیار کننده داشت. تولیدکنندگان پس از آن آزمایشات خود را به دلیل مطبوعات منفی به حالت تعلیق درآوردند و فرماندار آریزونا مجوز آزمایش اوبر را به حالت تعلیق درآورد. اوبر و یک شرکت سواری دیگر، لیفت، هر دو بخش های خودران خود را فروختند.

اما امسال بازگشتی به غرور داشته است – با بیش از 100 میلیارد دلار سرمایه گذاری در 10 سال گذشته، صنعت به سختی می تواند از پس آن بربیاید. خودروسازان جنرال موتورز و جیلی و شرکت AV Mobileye گفته اند که مردم ممکن است در اوایل سال 2024 بتوانند خودروهای خودران بخرند. کروز و Waymo هر دو قصد دارند امسال عملیات روباتاکسی تجاری را در سانفرانسیسکو راه اندازی کنند. Aurora همچنین قصد دارد طی دو تا سه سال آینده وسایل نقلیه کاملاً خودمختار را در ایالات متحده مستقر کند.

اسبرخی از کارشناسان ایمنی نگران فقدان مقررات حاکم بر این گام بعدی جسورانه هستند. کوپمن می‌گوید در حال حاضر، هر شرکتی «اساساً یک تصادف رایگان دریافت می‌کند»، و اضافه می‌کند که سیستم نظارتی در ایالات متحده مبتنی بر اعتماد به سازنده AV است تا زمانی که یک تصادف جدی رخ دهد. او به استارت‌آپ Uber و AV Pony.ai اشاره می‌کند که مجوز تست بدون راننده‌اش اخیراً در کالیفرنیا پس از یک برخورد جدی با یکی از وسایل نقلیه آن به حالت تعلیق درآمد.

یکی از عوارض جانبی اشتراک‌گذاری فناوری تسلا با مشتریان این است که تنظیم‌کننده‌ها به آن توجه می‌کنند. تسلا تاکنون از الزامات سخت‌گیرانه‌تر سایر سازندگان AV مانند گزارش تصادفات و خرابی‌های سیستم و استفاده از متخصصان ایمنی آموزش‌دیده به‌عنوان آزمایش‌کننده اجتناب کرده است، زیرا این ادعا که سیستم‌هایش ابتدایی‌تر هستند. اما دپارتمان وسایل نقلیه موتوری کالیفرنیا، تنظیم کننده رانندگی خودمختار این ایالت، در حال بررسی تغییر این سیستم است، تا حدی به دلیل ویدیوهای خطرناکی که از این فناوری در حال اجرا وجود دارد و همچنین تحقیقات NHTSA در مورد تسلا.

کمبود مقررات تا کنون، فقدان اجماع جهانی در این فضا را برجسته می کند. مینارد می‌گوید این سوال این است که “آیا نرم‌افزار به اندازه‌ای سریع رشد می‌کند که قبل از اینکه اتفاق بدی بیفتد و فرش را از کل شرکت بیرون بکشد، به نقطه‌ای برسد که هم قابل اعتماد باشد و هم قانون‌گذاران به آن چراغ سبز نشان دهند؟”

منبع : عصر فناوری

تسلاخودرو
شاید از این پست‌ها خوشتان بیاید