Tesla avec son logiciel 'Pleine Autonomie' écrase un 'enfant' lors d'un test de bus scolaire : Un échec retentissant

Tesla Running So-Called 'Full Self-Driving' Software Splatters 'Child' In School Bus Test

Tesla avec son logiciel 'Pleine Autonomie' écrase un 'enfant' lors d'un test de bus scolaire : Un échec retentissant

  • Marques
  • Tesla
  • Tesla avec son logiciel 'Pleine Autonomie' écrase un 'enfant' lors d'un test de bus scolaire : Un échec retentissant

    Tesla s'apprête à mettre quelques prétendus robotaxis sur les rues d'Austin bientôt. Ce ne seront pas les robotaxis CyberCab que Tesla a "dévoilés" fin de l'année dernière, mais de simples Model Y exécutant une version du logiciel dit "Pleine Autonomie" de Tesla. Et comment se passe ce logiciel ? Eh bien, si vous regardez les résultats du dernier test du Dawn Project, une organisation de sécurité fondée par Dan O'Dowd, diplômé de Caltech et ingénieur logiciel, la réponse est un retentissant "pas bien". Du moins si vous vous souciez des voitures qui s'arrêtent pour les enfants descendant des bus scolaires.

    Comme vous pouvez le voir dans la vidéo ci-dessous, O'Dowd a conduit une Model Y avec FSD 13.2.9 devant un bus scolaire arrêté avec son panneau d'arrêt déployé et les feux rouges clignotants. Ils ont ensuite placé un mannequin de taille enfant sur le chemin de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a traversé l'enfant comme s'il n'était même pas là.

    Pour aggraver les choses, la Tesla n'a pas échoué à détecter le mannequin, ce qui aurait déjà été assez grave. Le système a en fait détecté le substitut de taille enfant et l'a classé comme piéton mais n'a pas pris la peine de s'arrêter ou même de ralentir. Il a simplement continué, ignorant complètement le "enfant" traversant la rue. On pourrait penser que quelqu'un comme Elon Musk, si enthousiaste à l'idée des bébés, voudrait au moins que ses produits évitent d'écraser des enfants, non ?

    Tesla frappe un enfant

    Tesla FSD 13.2.9 écrasera toujours un enfant tout en passant illégalement devant un bus scolaire arrêté avec les feux rouges clignotants et le panneau d'arrêt déployé.

    Elon Musk, combien d'enfants FSD doit-il écraser avant que vous ne répariez cela ?

    J'ai averti de ce danger lors du Super Bowl 2023 !— Dan O'Dowd (@realdanodowd.bsky.social) 2025-05-28T14:17:41.446Z

    Tesla FSD 13.2.9 écrasera toujours un enfant tout en passant illégalement devant un bus scolaire arrêté avec les feux rouges clignotants et le panneau d'arrêt déployé.

    Elon Musk, combien d'enfants FSD doit-il écraser avant que vous ne répariez cela ?

    J'ai averti de ce danger lors du Super Bowl 2023 !

    Comme le souligne la vidéo, le Dawn Project a documenté les problèmes de FSD avec l'arrêt pour les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité lors du Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, la chose exacte dont elle avertissait se serait produite dans la vraie vie. Comme le rapporte ABC 11, le conducteur d'une Tesla Model Y a heurté Tillman Mitchell, un lycéen de l'école tribale Haliwa-Saponi à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que soit l'Autopilot, soit la Pleine Autonomie aurait pu être engagé pendant l'accident. Mitchell a subi des "blessures mettant sa vie en danger" et a été transporté par avion dans un hôpital voisin pour traitement, où, heureusement, il a survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement les types de blessures dont on se remet rapidement. Cet incident est loin d'être le seul où une Tesla n'a pas réussi à s'arrêter.

    Si le logiciel dit "Pleine Autonomie" de Tesla ne fonctionnait que sur les autoroutes comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules arrêtés, comme les bus scolaires, serait toujours un problème. Mais avec des plans pour déployer un tas de Model Y comme robotaxis dans les rues de la ville dans quelques semaines, c'est encore plus inquiétant.

    Les robotaxis arrivent toujours

    Certes, le Dawn Project et son fondateur Dan O'Dowd sont anti-Tesla et ne cachent pas ce fait. En conséquence, vous pouvez vous attendre à ce que l'armée de nerds de Tesla apparaisse dans les commentaires, se plaignant que ce n'était qu'un coup monté d'une organisation qui déteste leur héros, Elon Musk. Et pourtant, vous pouvez toujours regarder la vidéo elle-même. Vous pouvez toujours la voir écraser le mannequin. Si O'Dowd a truqué le test et est si manifestement coupable de diffamer Tesla et Musk, où sont les poursuites ?

    J'ai posé la même question lorsque le YouTuber Mark Rober a fait crasher une Tesla à travers un mur de mousse avec une route peinte dessus, à la manière de Wile E. Coyote, et cette poursuite n'a pas encore vu le jour non plus. Mais vous pouvez totalement faire confiance au gars qui promet des voitures autonomes depuis plus d'une décennie. Totalement.

    Dans une application sur votre téléphone, les bugs logiciels sont toujours ennuyeux, mais la vie de personne n'est jamais en danger si vous ne pouvez pas passer votre commande McDonald's. Le logiciel de conduite autonome dans les voitures est une chose complètement différente, cependant, et la devise de la Silicon Valley "aller vite et casser des choses" ne devrait vraiment pas s'appliquer lorsque ces choses sont en fait des personnes. Surtout des enfants.

    Tesla với phần mềm 'Lái Tự Động Hoàn Toàn' đâm vào 'trẻ em' trong thử nghiệm xe buýt trường học: Thất bại thảm hại

  • Thương hiệu
  • Tesla
  • Tesla với phần mềm 'Lái Tự Động Hoàn Toàn' đâm vào 'trẻ em' trong thử nghiệm xe buýt trường học: Thất bại thảm hại

    Tesla sắp đưa một số xe robotaxi giả định lên đường phố Austin sớm. Chúng sẽ không phải là robotaxi CyberCab mà Tesla "tiết lộ" vào cuối năm ngoái, mà là những chiếc Model Y thông thường chạy một phiên bản nào đó của phần mềm được gọi là "Lái Tự Động Hoàn Toàn" của Tesla. Và mọi thứ diễn ra như thế nào với phần mềm đó? Chà, nếu bạn nhìn vào kết quả của bài kiểm tra mới nhất từ Dawn Project, một tổ chức an toàn được thành lập bởi Dan O'Dowd, tốt nghiệp Caltech và là kỹ sư phần mềm, câu trả lời là một tiếng "không tốt" vang dội. Ít nhất là nếu bạn quan tâm đến việc xe hơi dừng lại cho trẻ em xuống xe buýt trường học.

    Như bạn có thể thấy trong video dưới đây, O'Dowd đã lái một chiếc Model Y chạy FSD 13.2.9 qua một chiếc xe buýt trường học đã dừng với biển báo dừng được triển khai và đèn đỏ nhấp nháy. Sau đó, họ kéo một hình nộm cỡ trẻ em vào đường đi của Tesla để xem liệu nó có dừng lại cho đứa trẻ hay không. Chiếc xe đã lao qua đứa trẻ như thể nó thậm chí không ở đó.

    Để làm cho vấn đề tồi tệ hơn, Tesla đã không thất bại trong việc phát hiện hình nộm, điều đó đã đủ tệ. Hệ thống thực sự đã phát hiện ra vật thay thế cỡ trẻ em và phân loại nó là người đi bộ nhưng không buồn dừng lại hoặc thậm chí giảm tốc độ. Nó chỉ tiếp tục đi, hoàn toàn bỏ qua "đứa trẻ" đang băng qua đường. Bạn có thể nghĩ rằng một người như Elon Musk, người rất thích trẻ em, ít nhất cũng muốn sản phẩm của mình tránh đâm vào trẻ em, phải không?

    Tesla đâm vào trẻ em

    Tesla FSD 13.2.9 sẽ vẫn đâm vào một đứa trẻ trong khi vượt qua bất hợp pháp một chiếc xe buýt trường học đã dừng với đèn đỏ nhấp nháy và biển báo dừng được mở rộng.

    Elon Musk, FSD cần đâm vào bao nhiêu đứa trẻ trước khi bạn sửa chữa điều này?

    Tôi đã cảnh báo về mối nguy hiểm này tại Super Bowl 2023!— Dan O'Dowd (@realdanodowd.bsky.social) 2025-05-28T14:17:41.446Z

    Tesla FSD 13.2.9 sẽ vẫn đâm vào một đứa trẻ trong khi vượt qua bất hợp pháp một chiếc xe buýt trường học đã dừng với đèn đỏ nhấp nháy và biển báo dừng được mở rộng.

    Elon Musk, FSD cần đâm vào bao nhiêu đứa trẻ trước khi bạn sửa chữa điều này?

    Tôi đã cảnh báo về mối nguy hiểm này tại Super Bowl 2023!

    Như video chỉ ra, Dawn Project đã ghi lại các vấn đề của FSD với việc dừng lại cho xe buýt trường học và đã cảnh báo Tesla về rủi ro hai năm rưỡi trước. Nó cũng đã chạy một quảng cáo Super Bowl vào năm 2023, chỉ ra điều tương tự. Không lâu sau khi quảng cáo của Dawn Project được phát, điều chính xác mà nó cảnh báo đã xảy ra trong đời thực. Như ABC 11 báo cáo, tài xế của một chiếc Tesla Model Y đã đâm vào Tillman Mitchell, một học sinh trung học tại Trường Bộ lạc Haliwa-Saponi ở Hollister, Bắc Carolina, khi anh ta xuống xe buýt trường học. Các nhà điều tra nghi ngờ rằng Autopilot hoặc Lái Tự Động Hoàn Toàn có thể đã được kích hoạt trong vụ va chạm. Mitchell bị "thương tích đe dọa tính mạng" và được đưa bằng máy bay đến một bệnh viện gần đó để điều trị, nơi, may mắn thay, anh đã sống sót. Tuy nhiên, gãy cổ và gãy chân không phải là những loại thương tích mà bạn có thể hồi phục nhanh chóng. Sự cố đó cũng không phải là lần duy nhất một chiếc Tesla không dừng lại.

    Nếu phần mềm được gọi là "Lái Tự Động Hoàn Toàn" của Tesla chỉ hoạt động trên đường cao tốc như một số hệ thống hỗ trợ lái xe khác, việc nó không thể dừng lại một cách đáng tin cậy cho xe cứu thương và các phương tiện dừng khác, như xe buýt trường học, vẫn sẽ là một vấn đề. Nhưng với kế hoạch triển khai một loạt Model Y làm robotaxi trên đường phố thành phố trong vài tuần nữa, điều đó còn đáng lo ngại hơn.

    Robotaxi vẫn đang đến

    Được thừa nhận, Dawn Project và người sáng lập Dan O'Dowd là chống Tesla và không cố gắng che giấu sự thật đó. Kết quả là, bạn có thể mong đợi đội quân mọt sách của Tesla xuất hiện trong các bình luận, phàn nàn rằng đây chỉ là một bài báo tấn công từ một tổ chức ghét anh hùng của họ, Elon Musk. Và tuy nhiên, bạn vẫn có thể xem video đó. Bạn vẫn có thể thấy nó đè lên hình nộm. Nếu O'Dowd đã giả mạo bài kiểm tra và rõ ràng là có tội phỉ báng Tesla và Musk, thì các vụ kiện ở đâu?

    Tôi đã đặt câu hỏi tương tự khi YouTuber Mark Rober làm một chiếc Tesla đâm xuyên qua một bức tường bọt với một con đường được vẽ trên đó, theo phong cách Wile E. Coyote, và vụ kiện đó cũng chưa xuất hiện. Nhưng bạn hoàn toàn có thể tin tưởng vào gã đã hứa hẹn về xe tự lái trong hơn một thập kỷ. Hoàn toàn.

    Trong một ứng dụng trên điện thoại của bạn, lỗi phần mềm vẫn gây khó chịu, nhưng không ai mạng sống của ai bị đe dọa nếu bạn không thể đặt hàng McDonald's. Tuy nhiên, phần mềm lái xe tự động trong ô tô là một điều hoàn toàn khác, và phương châm của Thung lũng Silicon "di chuyển nhanh và phá vỡ mọi thứ" thực sự không nên áp dụng khi những thứ đó thực sự là con người. Đặc biệt là trẻ em.