اداره ملی ایمنی ترافیک بزرگراه (NHTSA) پس از بررسی صدها تصادف، از جمله 13 حادثه مرگبار که منجر به مرگ 14 نفر شد، تحقیقاتی را در مورد سیستم کمک راننده خودکار تسلا به پایان رسانده است. این سازمان اعلام کرده است که این تصادفات به دلیل سوء استفاده رانندگان از سیستم بوده است.
با این حال، NHTSA همچنین دریافت که «سیستم درگیر شدن راننده ضعیف تسلا برای قابلیتهای عملیاتی مجاز Autopilot مناسب نیست». به عبارت دیگر، نرم افزار توجه راننده را در اولویت قرار نداد. سوارانی که از Autopilot یا تکنولوژی Full Self-Driving شرکت استفاده می کنند، «به اندازه کافی درگیر نبودند»، زیرا تسلا «به اندازه کافی اطمینان نداشت که رانندگان توجه خود را به وظیفه رانندگی حفظ می کنند».
این سازمان نزدیک به 1000 تصادف را از ژانویه 2018 تا آگوست 2023 بررسی کرده است که مجموعاً 29 مورد مرگ را شامل می شود. NHTSA دریافت که “داده های کافی برای ارزیابی” برای حدود نیمی (489) از این تصادفات وجود ندارد. در برخی از حوادث، طرف مقابل مقصر بود یا رانندگان تسلا از سیستم Autopilot استفاده نمی کردند.
جدی ترین آنها 211 تصادف بود که در آن “هواپیما جلوی تسلا به وسیله نقلیه یا مانعی در مسیر خود برخورد کرد” و اغلب به Autopilot یا FSD مرتبط بود. این حوادث منجر به کشته شدن 14 نفر و مجروحیت شدید 49 نفر شد. آژانس دریافت که رانندگان زمان کافی برای واکنش نشان دادند، اما در 78 مورد از این حوادث این کار را نکردند. این رانندگان با وجود داشتن حداقل پنج ثانیه برای حرکت، نتوانستند برای جلوگیری از خطر ترمز یا هدایت کنند.
اینجاست که شکایات علیه نرم افزار مطرح می شود. NHTSA می گوید که رانندگان به سادگی بیش از حد از خود راضی می شوند، با این فرض که سیستم هر خطری را کنترل می کند. وقتی زمان واکنش فرا رسید، دیگر دیر شده بود. این سازمان نوشت: «تصادفهایی که راننده آن را بدون اقدام یا اقدام گریز دیرهنگام انجام داده بود، در تمام نسخههای سختافزاری تسلا و شرایط تصادف پیدا شد. عدم تعادل بین انتظارات راننده و قابلیت های عملیاتی Autopilot منجر به “شکاف ایمنی بحرانی” شد که منجر به “سوء استفاده قابل پیش بینی و تصادفات قابل اجتناب” شد.
NHTSA همچنین با نام تجاری Autopilot خشمگین شد و آن را گمراه کننده خواند و پیشنهاد کرد که به رانندگان اجازه می دهد نرم افزار را کنترل کامل کنند. برای این منظور، شرکتهای رقیب تمایل دارند از نام تجاری با کلماتی مانند «دستیار راننده» استفاده کنند. خلبان خودکار، خوب، یک خلبان مستقل را نشان می دهد. دادستان کل کالیفرنیا و دپارتمان وسایل نقلیه موتوری این ایالت نیز در حال بررسی تسلا به دلیل نام تجاری و بازاریابی گمراه کننده هستند.
از سوی دیگر، تسلا می گوید که به مشتریان هشدار می دهد که باید در هنگام استفاده از Autopilot و FSD توجه کنند. آستانه. این شرکت میگوید این نرمافزار دارای نشانگرهای منظمی است که به رانندگان یادآوری میکند که دست خود را روی چرخها نگه دارند و چشمها را به جاده نگاه کنند. NHTSA و سایر گروههای ایمنی گفتهاند که این هشدارها به اندازه کافی پیش نمیروند و «برای جلوگیری از سوء استفاده کافی نیستند». علیرغم این اظهارات گروههای ایمنی، مدیر عامل شرکت ایلان ماسک اخیراً قول داده است که این شرکت به “توپ به دیوار برای استقلال” ادامه خواهد داد.
یافتهها تنها میتوانند بخش کوچکی از تعداد واقعی تصادفها و سوانح مربوط به Autopilot و FSD را نشان دهند. NHTSA نشان داد که «شکافهای موجود در دادههای تلماتیکی تسلا باعث ایجاد ابهام در مورد نرخ واقعی تصادف خودروهایی میشود که با Autopilot درگیر کار میکنند». این بدان معناست که تسلا فقط اطلاعات انواع خاصی از تصادفات را دریافت می کند، به طوری که NHTSA ادعا می کند که این شرکت اطلاعات حدود 18 درصد از تصادفات گزارش شده به پلیس را جمع آوری می کند.
با تمام این ذهنیت، این سازمان تحقیقات دیگری را در مورد تسلا باز کرده است. این یکی به تعمیر نرم افزار OTA اخیر می پردازد که در دسامبر پس از فراخوانی دو میلیون خودرو صادر شد. NHTSA ارزیابی خواهد کرد که آیا تعمیر فراخوان Autopilot که تسلا اجرا کرده است به اندازه کافی موثر است یا خیر.