Les taxis autonomes de Waymo affrontent un nouveau test de code de la route où la marge d’erreur est inexistante. Selon Reuters, Alphabet lance un rappel logiciel volontaire après qu’au Texas, ses voitures ont dépassé illégalement des bus scolaires affichant le signal d’arrêt à au moins 19 reprises depuis le début de l’année scolaire. Aux États‑Unis, la situation figure parmi les plus strictement encadrées: un conducteur doit s’arrêter et attendre que les enfants aient traversé. Dans l’univers de l’autonomie, ces moments rares mais à enjeu maximal font office de juge de paix.

La NHTSA a ouvert son examen en octobre et exige désormais de Waymo des réponses détaillées sur les incidents texans d’ici au 20 janvier. L’entreprise reconnaît que le logiciel a pu être en cause: dans certains cas, le véhicule a ralenti ou s’est immobilisé, puis a repris sa progression alors que le bus était toujours à l’arrêt. Waymo affirme que des mises à jour déjà déployées ont nettement amélioré le comportement, et que le rappel servira à imposer et verrouiller la version logicielle requise sur l’ensemble de la flotte.

Le point le plus troublant vient du district scolaire d’Austin. Dans une lettre publiée par la NHTSA, l’Austin ISD indique que les infractions ont perduré même après les mises à jour et a demandé à Waymo de suspendre ses opérations près des écoles aux heures d’arrivée et de sortie. Le district affirme également qu’un robotaxi a dépassé un bus peu après qu’un enfant a traversé la rue. Waymo, de son côté, a refusé d’interrompre le service et soutient que son système, dans cette zone, fait déjà mieux qu’un conducteur humain. Les progrès comptent, mais autour des bus scolaires la norme est la perfection — c’est là que la confiance se gagne ou se perd.