Os táxis autônomos da Waymo encaram mais um teste crítico de convivência com as regras de trânsito — um daqueles em que erro não entra na conta. Segundo a Reuters, a Alphabet iniciou um recall voluntário de software depois que seus carros, no Texas, passaram ilegalmente por ônibus escolares com o sinal de parada acionado pelo menos 19 vezes desde o início do ano letivo. Nos Estados Unidos, poucas situações são tão rigidamente controladas: o motorista deve parar e esperar até que as crianças atravessem. Para veículos sem condutor, episódios raros porém de alto risco como esse são o verdadeiro termômetro de maturidade.

A NHTSA abriu a análise em outubro e agora determinou que a Waymo forneça respostas detalhadas sobre os incidentes no Texas até 20 de janeiro. A empresa reconhece que o software pode ter sido a causa: em alguns casos, o veículo desacelerou ou chegou a parar e depois voltou a se mover enquanto o ônibus ainda estava imobilizado. A Waymo afirma que as atualizações já distribuídas melhoraram de forma significativa o comportamento, e que o recall vai essencialmente aplicar e travar a versão exigida do software em toda a frota.

O trecho mais inquietante vem do distrito escolar de Austin. Em carta divulgada pela NHTSA, o Austin ISD afirmou que as violações continuaram mesmo após as atualizações e pediu que a Waymo interrompesse as operações perto de escolas nos horários de embarque e desembarque. O distrito também relatou um caso em que um robotáxi passou por um ônibus pouco depois de uma criança atravessar a rua. A Waymo, por sua vez, recusou suspender o serviço e sustenta que, naquela área, seu sistema já se comporta melhor do que um motorista humano. O progresso conta, mas ao redor de ônibus escolares a régua é a perfeição — é aí que a confiança se conquista ou se perde.