A Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA) encerrou sua investigação sobre o sistema de assistência ao motorista Full Self-Driving (FSD) da Tesla depois de analisar centenas de acidentes, incluindo 13 mortes, ligados ao seu “uso indevido”. Ao mesmo tempo, a NHTSA está lançando uma nova investigação para avaliar a eficácia das modificações do piloto automático feitas pela Tesla durante a campanha de recall em dezembro.

Fonte da imagem: Tesla

O encerramento da investigação original, iniciada em 2021, marca o fim de um dos esforços mais visíveis do governo para examinar minuciosamente o software Autopilot da Tesla. Hoje, o Escritório de Investigação de Defeitos da NHTSA relatou “extenso trabalho” que concluiu que o “fraco sistema de interação do motorista da Tesla não atende às capacidades operacionais aceitáveis ​​do piloto automático”.

«Esta discrepância criou uma lacuna crítica de segurança entre as expectativas dos motoristas em relação às capacidades de desempenho do piloto automático e as verdadeiras capacidades do sistema, escreveu a agência no seu relatório. “Essa lacuna levou a um uso indevido previsível e a falhas evitáveis.”

A NHTSA disse que a investigação analisou 956 acidentes relatados até 30 de agosto de 2023. Em cerca de metade (489) deles, a agência não identificou o piloto automático como sendo o culpado ou não tinha dados suficientes para fazer uma avaliação.

Os restantes 467 acidentes foram condicionalmente divididos em três grupos. Nas 211 colisões mais graves, “a colisão frontal de Tesla ocorreu com outro veículo ou obstáculo, e o motorista atento teve tempo suficiente para reagir para evitar ou mitigar o impacto da colisão”. 145 acidentes envolveram “saída da estrada em condições de baixa tração, como estradas molhadas”. 111 acidentes ocorreram durante a condução na estrada quando “o sistema de direção automática foi acidentalmente desativado pela ação do motorista”.

A agência acredita que as consequências graves dos acidentes são muitas vezes o resultado de “nem o sistema nem o condutor responderem adequadamente, resultando em flutuações de velocidade e consequências energéticas elevadas”.

Fonte da imagem: KTVU-TV/AP

A Tesla exige que os motoristas monitorem as condições do trânsito e mantenham as mãos no volante ao usar o piloto automático, que é monitorado por meio de um sensor de torque, e em carros novos, câmeras na cabine. Mas a NHTSA e outros grupos de segurança dizem que estas medidas são “insuficientes para prevenir abusos”. A Tesla concordou em atualizar seu software para melhorar o monitoramento da atividade do motorista. Mas a atualização não parece mudar muito o Autopilot – algumas partes da atualização de software exigem o consentimento do proprietário, e a Tesla permite que o motorista “anule facilmente” algumas medidas de segurança, de acordo com a NHTSA.

Fonte da imagem: TheVerge

A agência encontrou enormes lacunas nos dados telemáticos recolhidos pela Tesla, criando incerteza sobre a taxa real de acidentes. De acordo com a agência, a Tesla só recebe dados quando os airbags, os pré-tensores dos cintos de segurança ou o recurso de mitigação de pedestres no capô do carro são acionados. A NHTSA acredita que de todos os acidentes relatados à polícia, Tesla tem conhecimento de apenas cerca de 18%.

O Departamento de Justiça dos EUA está conduzindo sua própria investigação sobre a Tesla, e o Departamento de Veículos Motorizados da Califórnia acusou a empresa de anunciar falsamente as capacidades do piloto automático e exigiu testes aprofundados do software FSD. A empresa também enfrentou vários processos judiciais relacionados ao piloto automático. No entanto, a Tesla não está a mudar de rumo e luta para alcançar a autonomia total nos seus veículos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *