A Cruise, de propriedade da General Motors, não parou de testar seus carros autônomos, mesmo depois de saber que seus algoritmos de navegação podem não reconhecer crianças ou buracos em determinados cenários.

Fonte da imagem: getcruise.com

Cruise tem testado carros autônomos, inclusive operados comercialmente, em vias públicas de várias cidades dos EUA. Os seus representantes garantiram que o piloto automático era muito mais seguro do que uma pessoa ao volante, mas isso não reduziu o cepticismo tanto por parte dos utentes comuns da estrada como das autoridades reguladoras. Recentemente, o Departamento de Veículos Motorizados da Califórnia (DMV) revogou a licença de operação do robotáxi Cruise, e o motivo não foram os inúmeros incidentes com os carros, mas o fato de a empresa ter ocultado a gravação de um incidente em que o robotáxi arrastou uma pessoa que caiu sob suas rodas por cerca de 6 metros.

Mas este incidente é apenas a ponta do iceberg, descobriram os jornalistas do The Intercept. Mensagens no chat interno da empresa mostram que seus funcionários estavam cientes de dois problemas importantes: os carros autônomos da Cruise têm dificuldade em detectar grandes buracos nas estradas e podem não reconhecer crianças em determinadas condições. Sabendo disso, ela continuou a operar esses veículos e garantiu ao público sua segurança.

Os materiais internos do Cruise indicam que os seus veículos robóticos atravessam as passadeiras de peões com demasiada rapidez e não abrandam, mesmo quando detectam a presença de uma criança nas imediações, embora esta possa sair correndo para a estrada a qualquer momento. Nos dados de treinamento, admite o desenvolvedor, os cenários em que uma criança foge repentinamente de um adulto acompanhante, cai, anda de bicicleta ou usa uma fantasia fora do padrão não estão suficientemente desenvolvidos. Como a modelagem mostrou, a empresa não exclui a possibilidade de um veículo não tripulado atingir uma criança. Num test drive, o Cruise detectou com sucesso um manequim de tamanho infantil, mas ainda assim atingiu-o com o espelho lateral a 44,8 km/h.

A incapacidade dos carros robóticos de detectar crianças com segurança nos materiais internos da empresa foi explicada por software imperfeito e condições de teste insuficientemente eficazes: a plataforma de software não possui um classificador de alta precisão de “pequenos usuários vulneráveis ​​da estrada”, ou seja, crianças, que permitiria que fossem identificados automaticamente e realizassem as manobras de navegação necessárias. A empresa tentou compensar esta falha com a ajuda de operadores treinados que identificavam as crianças manualmente caso o software falhasse.

Cruise admitiu que durante os testes de simulação no verão passado, o piloto automático perdeu temporariamente de vista as crianças na beira da estrada. A empresa esclareceu que o problema foi solucionado, e só ocorreu durante os testes, e não durante a operação dos veículos em vias públicas – mas não informou quanto tempo demorou para solucionar o problema e como exatamente foi solucionado. A porta-voz de Cruise, Navideh Forghani, acrescentou que o software não só não conseguiu identificar esses objetos como crianças, mas também não os viu. O diretor de relações públicas da empresa, Erik Moser, sublinhou que classificar as crianças como uma categoria especial de peões é especialmente importante porque podem comportar-se de forma imprevisível. A empresa estima que o risco de colisão com uma criança pode ocorrer uma vez a cada 300 milhões de milhas (480 milhões de km) de viagens da frota, e a taxa aumentou desde os testes que levaram a esta estimativa. Nenhum ataque real a crianças foi registrado.

Outro problema conhecido pelo desenvolvedor sobre o piloto automático Cruise é sua incapacidade de detectar grandes buracos nas estradas, incluindo aqueles que ocorrem durante obras rodoviárias nas quais os trabalhadores estão localizados. O problema é conhecido há mais de um ano e, segundo estimativas da própria empresa, representa um sério risco às suas atividades: com a versão atual do software, um dos veículos robóticos Cruise pode entrar em um fosso sem pessoas uma vez por ano, e em uma cova com as pessoas uma vez a cada quatro anos. Sem resolver o problema, o risco poderá aumentar à medida que a frota de carros autônomos da empresa se expandir. E este problema já não é hipotético: há uma gravação em que um carro Cruise, ignorando os cones de trânsito, dirige-se para um fosso com trabalhadores, travando bruscamente apenas à entrada – quer o carro tenha entrado no fosso ou conseguido travar, o vídeo não entendi.

O professor da Universidade Carnegie Mellon, Phil Koopman, com quem o The Intercept conversou, disse que o problema dos “obstáculos negativos” (como os desenvolvedores de veículos autônomos chamam de buracos) é conhecido há muito tempo, e Cruise deveria tê-los incluído na matriz de treinamento. Desde o ínicio. Ele criticou o mecanismo de aprendizado de máquina, que depende do processamento de cenários depois que a máquina encontra uma ameaça, e não antes. Resolver o problema de classificar incorretamente as crianças como uma categoria especial de pedestres é uma espécie de paradoxo da engenharia, uma vez que é difícil classificar um objeto que nem sempre é detectado. Cruise tentou resolver temporariamente este problema limitando o horário de funcionamento do robotáxi, mas a empresa claramente não deveria ter recusado os serviços dos operadores no salão do carro-robô – isso foi feito apenas por uma questão de imagem e de investidores.

Problemas com crianças e buracos nas estradas não são os únicos que Cruise tem. Anteriormente, também se soube que os carros autônomos da empresa faziam curvas à esquerda incorretamente em cruzamentos não controlados. Para resolver esse problema, Cruise teve que lançar uma atualização de software especial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *