Robotaxis de Waymo Sous Surveillance Après des Incidents avec des Autobus Scolaires
La technologie de conduite autonome de Waymo est confrontée à de sérieux problèmes. La National Highway Traffic Safety Administration (NHTSA) met la pression, exigeant plus d'informations après que des rapports ont révélé que les robotaxis de Waymo auraient dépassé illégalement des autobus scolaires 19 fois cette année à Austin. Je veux dire, ça ne fait pas bonne impression, surtout quand des enfants sont impliqués.
Tout a commencé avec un incident à Atlanta, où un véhicule Waymo a manœuvré autour d'un autobus scolaire arrêté, avec le panneau d'arrêt déployé et les feux clignotants, pendant que les enfants descendaient. Waymo a affirmé que l'autobus bloquait l'entrée et que son système ne pouvait pas voir les signaux. Ils ont même publié une mise à jour logicielle pour soi-disant corriger le problème.
Cependant, les problèmes ne se sont pas arrêtés là. Le district scolaire d'Austin a signalé plusieurs cas de véhicules Waymo faisant la même chose, même après la mise à jour du logiciel. Sérieusement ? C'est comme réparer un trou avec du ruban adhésif et s'attendre à ce qu'il tienne.
Le district scolaire en a tellement marre qu'il a demandé à Waymo d'interrompre ses activités pendant les heures de pointe des cours. "Vos mises à jour logicielles ne fonctionnent pas", ont-ils dit en substance à Waymo dans une lettre. "Nous ne pouvons pas risquer la sécurité de nos élèves pendant que vous bricolez les correctifs." Dur, mais juste, je pense.
Réponse de Waymo
La réponse de Waymo ? La sécurité est leur "priorité absolue", bien sûr. Ils ont même souligné que leurs données montrent une réduction des accidents liés aux blessures par rapport aux conducteurs humains. Et c'est vrai, les voitures autonomes évitent de nombreux accidents. Cependant, il y a beaucoup d'accidents impliquant des tâches simples, comme la reconnaissance d'un autobus scolaire.
Il semble que Waymo ait de sérieuses explications à donner. La NHTSA veut savoir si Waymo a effectivement interrompu ses activités comme demandé, si le correctif logiciel a réellement résolu le problème et si un rappel est prévu. Toute cette situation soulève de grandes questions sur la fiabilité et la sécurité de la technologie de conduite autonome, en particulier dans les situations où les décisions en une fraction de seconde sont essentielles. Je suis inquiet, et vous devriez l'être aussi.
Source: TechCrunch