NHTSA پس از مرتبط ساختن این سیستم به 14 مرگ، تحقیقات تسلا خودکار را به پایان می رساند

NHTSA پس از مرتبط ساختن این سیستم به 14 مرگ، تحقیقات تسلا خودکار را به پایان می رساند

اداره ملی ایمنی ترافیک بزرگراه (NHTSA) پس از بررسی صدها تصادف، از جمله 13 حادثه مرگبار که منجر به مرگ 14 نفر شد، تحقیقاتی را در مورد سیستم کمک راننده خودکار تسلا به پایان رسانده است. این سازمان اعلام کرده است که این تصادفات به دلیل سوء استفاده رانندگان از سیستم بوده است.

با این حال، NHTSA همچنین دریافت که «سیستم درگیر شدن راننده ضعیف تسلا برای قابلیت‌های عملیاتی مجاز Autopilot مناسب نیست». به عبارت دیگر، نرم افزار توجه راننده را در اولویت قرار نداد. سوارانی که از Autopilot یا تکنولوژی Full Self-Driving شرکت استفاده می کنند، «به اندازه کافی درگیر نبودند»، زیرا تسلا «به اندازه کافی اطمینان نداشت که رانندگان توجه خود را به وظیفه رانندگی حفظ می کنند».

این سازمان نزدیک به 1000 تصادف را از ژانویه 2018 تا آگوست 2023 بررسی کرده است که مجموعاً 29 مورد مرگ را شامل می شود. NHTSA دریافت که “داده های کافی برای ارزیابی” برای حدود نیمی (489) از این تصادفات وجود ندارد. در برخی از حوادث، طرف مقابل مقصر بود یا رانندگان تسلا از سیستم Autopilot استفاده نمی کردند.

جدی ترین آنها 211 تصادف بود که در آن “هواپیما جلوی تسلا به وسیله نقلیه یا مانعی در مسیر خود برخورد کرد” و اغلب به Autopilot یا FSD مرتبط بود. این حوادث منجر به کشته شدن 14 نفر و مجروحیت شدید 49 نفر شد. آژانس دریافت که رانندگان زمان کافی برای واکنش نشان دادند، اما در 78 مورد از این حوادث این کار را نکردند. این رانندگان با وجود داشتن حداقل پنج ثانیه برای حرکت، نتوانستند برای جلوگیری از خطر ترمز یا هدایت کنند.

اینجاست که شکایات علیه نرم افزار مطرح می شود. NHTSA می گوید که رانندگان به سادگی بیش از حد از خود راضی می شوند، با این فرض که سیستم هر خطری را کنترل می کند. وقتی زمان واکنش فرا رسید، دیگر دیر شده بود. این سازمان نوشت: «تصادف‌هایی که راننده آن را بدون اقدام یا اقدام گریز دیرهنگام انجام داده بود، در تمام نسخه‌های سخت‌افزاری تسلا و شرایط تصادف پیدا شد. عدم تعادل بین انتظارات راننده و قابلیت های عملیاتی Autopilot منجر به “شکاف ایمنی بحرانی” شد که منجر به “سوء استفاده قابل پیش بینی و تصادفات قابل اجتناب” شد.

NHTSA همچنین با نام تجاری Autopilot خشمگین شد و آن را گمراه کننده خواند و پیشنهاد کرد که به رانندگان اجازه می دهد نرم افزار را کنترل کامل کنند. برای این منظور، شرکت‌های رقیب تمایل دارند از نام تجاری با کلماتی مانند «دستیار راننده» استفاده کنند. خلبان خودکار، خوب، یک خلبان مستقل را نشان می دهد. دادستان کل کالیفرنیا و دپارتمان وسایل نقلیه موتوری این ایالت نیز در حال بررسی تسلا به دلیل نام تجاری و بازاریابی گمراه کننده هستند.

از سوی دیگر، تسلا می گوید که به مشتریان هشدار می دهد که باید در هنگام استفاده از Autopilot و FSD توجه کنند. آستانه. این شرکت می‌گوید این نرم‌افزار دارای نشانگرهای منظمی است که به رانندگان یادآوری می‌کند که دست خود را روی چرخ‌ها نگه دارند و چشم‌ها را به جاده نگاه کنند. NHTSA و سایر گروه‌های ایمنی گفته‌اند که این هشدارها به اندازه کافی پیش نمی‌روند و «برای جلوگیری از سوء استفاده کافی نیستند». علی‌رغم این اظهارات گروه‌های ایمنی، مدیر عامل شرکت ایلان ماسک اخیراً قول داده است که این شرکت به “توپ به دیوار برای استقلال” ادامه خواهد داد.

یافته‌ها تنها می‌توانند بخش کوچکی از تعداد واقعی تصادف‌ها و سوانح مربوط به Autopilot و FSD را نشان دهند. NHTSA نشان داد که «شکاف‌های موجود در داده‌های تلماتیکی تسلا باعث ایجاد ابهام در مورد نرخ واقعی تصادف خودروهایی می‌شود که با Autopilot درگیر کار می‌کنند». این بدان معناست که تسلا فقط اطلاعات انواع خاصی از تصادفات را دریافت می کند، به طوری که NHTSA ادعا می کند که این شرکت اطلاعات حدود 18 درصد از تصادفات گزارش شده به پلیس را جمع آوری می کند.

با تمام این ذهنیت، این سازمان تحقیقات دیگری را در مورد تسلا باز کرده است. این یکی به تعمیر نرم افزار OTA اخیر می پردازد که در دسامبر پس از فراخوانی دو میلیون خودرو صادر شد. NHTSA ارزیابی خواهد کرد که آیا تعمیر فراخوان Autopilot که تسلا اجرا کرده است به اندازه کافی موثر است یا خیر.

منبع