Tesla avec son logiciel 'Pleine Autonomie' écrase un 'enfant' lors d'un test de bus scolaire : Un échec retentissant
Tesla avec son logiciel 'Pleine Autonomie' écrase un 'enfant' lors d'un test de bus scolaire : Un échec retentissant
Tesla s'apprête à mettre quelques prétendus robotaxis sur les rues d'Austin bientôt. Ce ne seront pas les robotaxis CyberCab que Tesla a "dévoilés" fin de l'année dernière, mais de simples Model Y exécutant une version du logiciel dit "Pleine Autonomie" de Tesla. Et comment se passe ce logiciel ? Eh bien, si vous regardez les résultats du dernier test du Dawn Project, une organisation de sécurité fondée par Dan O'Dowd, diplômé de Caltech et ingénieur logiciel, la réponse est un retentissant "pas bien". Du moins si vous vous souciez des voitures qui s'arrêtent pour les enfants descendant des bus scolaires.
Comme vous pouvez le voir dans la vidéo ci-dessous, O'Dowd a conduit une Model Y avec FSD 13.2.9 devant un bus scolaire arrêté avec son panneau d'arrêt déployé et les feux rouges clignotants. Ils ont ensuite placé un mannequin de taille enfant sur le chemin de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a traversé l'enfant comme s'il n'était même pas là.
Pour aggraver les choses, la Tesla n'a pas échoué à détecter le mannequin, ce qui aurait déjà été assez grave. Le système a en fait détecté le substitut de taille enfant et l'a classé comme piéton mais n'a pas pris la peine de s'arrêter ou même de ralentir. Il a simplement continué, ignorant complètement le "enfant" traversant la rue. On pourrait penser que quelqu'un comme Elon Musk, si enthousiaste à l'idée des bébés, voudrait au moins que ses produits évitent d'écraser des enfants, non ?
Tesla frappe un enfant
Tesla FSD 13.2.9 écrasera toujours un enfant tout en passant illégalement devant un bus scolaire arrêté avec les feux rouges clignotants et le panneau d'arrêt déployé.Elon Musk, combien d'enfants FSD doit-il écraser avant que vous ne répariez cela ?
J'ai averti de ce danger lors du Super Bowl 2023 !— Dan O'Dowd (@realdanodowd.bsky.social) 2025-05-28T14:17:41.446Z
Tesla FSD 13.2.9 écrasera toujours un enfant tout en passant illégalement devant un bus scolaire arrêté avec les feux rouges clignotants et le panneau d'arrêt déployé.
Elon Musk, combien d'enfants FSD doit-il écraser avant que vous ne répariez cela ?
J'ai averti de ce danger lors du Super Bowl 2023 !
Comme le souligne la vidéo, le Dawn Project a documenté les problèmes de FSD avec l'arrêt pour les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité lors du Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, la chose exacte dont elle avertissait se serait produite dans la vraie vie. Comme le rapporte ABC 11, le conducteur d'une Tesla Model Y a heurté Tillman Mitchell, un lycéen de l'école tribale Haliwa-Saponi à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que soit l'Autopilot, soit la Pleine Autonomie aurait pu être engagé pendant l'accident. Mitchell a subi des "blessures mettant sa vie en danger" et a été transporté par avion dans un hôpital voisin pour traitement, où, heureusement, il a survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement les types de blessures dont on se remet rapidement. Cet incident est loin d'être le seul où une Tesla n'a pas réussi à s'arrêter.
Si le logiciel dit "Pleine Autonomie" de Tesla ne fonctionnait que sur les autoroutes comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules arrêtés, comme les bus scolaires, serait toujours un problème. Mais avec des plans pour déployer un tas de Model Y comme robotaxis dans les rues de la ville dans quelques semaines, c'est encore plus inquiétant.
Les robotaxis arrivent toujours
Certes, le Dawn Project et son fondateur Dan O'Dowd sont anti-Tesla et ne cachent pas ce fait. En conséquence, vous pouvez vous attendre à ce que l'armée de nerds de Tesla apparaisse dans les commentaires, se plaignant que ce n'était qu'un coup monté d'une organisation qui déteste leur héros, Elon Musk. Et pourtant, vous pouvez toujours regarder la vidéo elle-même. Vous pouvez toujours la voir écraser le mannequin. Si O'Dowd a truqué le test et est si manifestement coupable de diffamer Tesla et Musk, où sont les poursuites ?
J'ai posé la même question lorsque le YouTuber Mark Rober a fait crasher une Tesla à travers un mur de mousse avec une route peinte dessus, à la manière de Wile E. Coyote, et cette poursuite n'a pas encore vu le jour non plus. Mais vous pouvez totalement faire confiance au gars qui promet des voitures autonomes depuis plus d'une décennie. Totalement.
Dans une application sur votre téléphone, les bugs logiciels sont toujours ennuyeux, mais la vie de personne n'est jamais en danger si vous ne pouvez pas passer votre commande McDonald's. Le logiciel de conduite autonome dans les voitures est une chose complètement différente, cependant, et la devise de la Silicon Valley "aller vite et casser des choses" ne devrait vraiment pas s'appliquer lorsque ces choses sont en fait des personnes. Surtout des enfants.