Tesla en mode Full Self-Driving ignore un arrêt de bus scolaire et percute des mannequins enfants : une démonstration alarmante

Tesla blows past stopped school bus and hits kid-sized dummies in Full Self-Driving tests

Tesla en mode Full Self-Driving ignore un arrêt de bus scolaire et percute des mannequins enfants : une démonstration alarmante

Une démonstration révélatrice du mode Full Self-Driving (FSD) de Tesla relance le débat sur la sécurité des voitures autonomes. Récemment à Austin (Texas), une Tesla Model Y a franchi les feux clignotants et le panneau d'arrêt d'un bus scolaire, percutant des mannequins de taille enfant lors de tests menés par The Dawn Project. Ces essais, réalisés en collaboration avec Tesla Takedown et ResistAustin, ont montré que le logiciel FSD répétait la même erreur à huit reprises.

Il est important de noter que le système Full Self-Driving de Tesla est officiellement baptisé 'Full Self-Driving (Supervised)' et nécessite un conducteur pleinement attentif. Le constructeur précise que 'le non-respect de ces instructions pourrait causer des dommages, des blessures graves ou la mort'. Pourtant, ce n'est pas la première fois que le FSD suscite des inquiétudes.

The Dawn Project, dont le fondateur Dan O'Dowd dirige une entreprise concurrente dans les systèmes de conduite automatisée, avait déjà alerté sur les dangers du FSD autour des bus scolaires. En avril 2024, une Model S utilisant le FSD a été impliquée dans un accident mortel à Washington, entraînant le décès d'un motocycliste.

Alors que Tesla reporte le déploiement de son Cybercab entièrement autonome, Elon Musk a partagé sur X des précisions concernant le calendrier. Le PDG a déclaré que Tesla 'fait preuve d'une paranoïa extrême concernant la sécurité', ce qui pourrait modifier la date de sortie prévue le 22 juin. Il a également annoncé que la première Tesla capable de conduire seule de l'usine jusqu'au domicile d'un client sera disponible le 28 juin.

Tesla vượt ẩu qua điểm dừng xe buýt trường học, đâm trúng manơcanh trẻ em trong thử nghiệm Full Self-Driving

Một thử nghiệm đáng báo động với chế độ Full Self-Driving (FSD) của Tesla đặt ra câu hỏi lớn về độ an toàn của xe tự lái. Tại Austin, Texas, chiếc Tesla Model Y đã bỏ qua đèn nháy và biển dừng của xe buýt trường học, đâm vào các manơcanh có kích thước trẻ em trong loạt thử nghiệm do The Dawn Project thực hiện. Các bài kiểm tra này, phối hợp cùng Tesla Takedown và ResistAustin, cho thấy phần mềm FSD lặp lại cùng một lỗi đến 8 lần.

Đáng chú ý, tính năng Full Self-Driving của Tesla được gọi chính thức là 'Full Self-Driving (Supervised)' và yêu cầu 'tài xế phải luôn tập trung, hệ thống sẽ đưa ra cảnh báo leo thang nếu không có phản hồi'. Tesla cảnh báo rõ: 'Việc không tuân thủ hướng dẫn có thể gây thiệt hại, thương tích nghiêm trọng hoặc tử vong'. Tuy nhiên, đây không phải lần đầu FSD gặp sự cố.

The Dawn Project - tổ chức có người sáng lập Dan O'Dowd là CEO của công ty cạnh tranh trong lĩnh vực phần mềm lái tự động - từng đăng quảng cáo cảnh báo về nguy cơ FSD không nhường đường xe buýt trường học. Tháng 4/2024, một vụ tai nạn chết người xảy ra ở Washington liên quan đến Model S sử dụng FSD, khiến một người đi xe máy thiệt mạng.

Trong bối cảnh Tesla hoãn ra mắt Cybercab hoàn toàn tự lái, CEO Elon Musk đã chia sẻ thêm chi tiết trên X. Ông cho biết Tesla 'đang cực kỳ thận trọng về vấn đề an toàn' nên ngày ra mắt 22/6 có thể thay đổi. Musk cũng tiết lộ chiếc Tesla đầu tiên tự lái từ nhà máy tới tay khách hàng sẽ xuất hiện vào ngày 28/6.