I taxi senza conducente di Waymo affrontano un’ennesima prova da strada con margine d’errore pari a zero. Secondo Reuters, Alphabet avvia un richiamo software volontario dopo che in Texas le sue auto hanno superato illegalmente scuolabus con i segnali di stop attivati almeno 19 volte dall’inizio dell’anno scolastico. Negli Stati Uniti è uno degli scenari più regolamentati: chi guida deve fermarsi e attendere che i bambini abbiano attraversato. Per i sistemi autonomi, episodi rari ma ad altissimo rischio come questo restano il vero banco di prova della maturità.

La NHTSA ha aperto l’indagine a ottobre e ora ha ordinato a Waymo di fornire risposte dettagliate sugli episodi texani entro il 20 gennaio. L’azienda ammette che il software potrebbe aver avuto un ruolo: in alcuni casi il veicolo ha rallentato o si è fermato, per poi ripartire mentre lo scuolabus era ancora fermo. Waymo afferma che gli aggiornamenti già distribuiti hanno migliorato sensibilmente il comportamento e che il richiamo servirà di fatto a spingere e bloccare la versione software richiesta su tutta la flotta.

La parte più inquietante arriva dal distretto scolastico di Austin. In una lettera pubblicata dalla NHTSA, l’Austin ISD segnala che le violazioni sono proseguite anche dopo gli aggiornamenti e chiede a Waymo di sospendere le operazioni vicino alle scuole negli orari di entrata e uscita. Il distretto riferisce inoltre di un caso in cui un robotaxi avrebbe superato uno scuolabus poco dopo che un bambino aveva attraversato la strada. Waymo, dal canto suo, ha rifiutato di sospendere il servizio, sostenendo che in quell’area il suo sistema già si comporta meglio di un guidatore umano. Il progresso pesa, ma attorno agli scuolabus lo standard è la perfezione: è lì che la fiducia si guadagna o si perde.