Uma investigação independente do The Wall Street Journal descobriu que o sistema de assistência ao motorista Autopilot da Tesla pode causar acidentes fatais devido a decisões erradas tomadas pelo algoritmo. Os jornalistas da publicação removeram computadores Tesla com função FSD de carros danificados e, com a ajuda de hackers, como relata o Notebookcheck, obtiveram acesso aos dados brutos do piloto automático.
A análise desta informação, juntamente com gravações de vídeo de acidentes e relatórios oficiais, permitiu-nos reconstruir 222 incidentes envolvendo Tesla. Em 44 casos, os carros no piloto automático mudaram repentinamente de direção e em 31 casos não pararam nem cederam. Este último cenário, segundo o estudo, costuma levar aos acidentes mais graves.
Um dos exemplos mais marcantes e sensacionais é uma colisão com um trailer capotado, que o sistema de piloto automático não conseguiu reconhecer como obstáculo e o carro Tesla bateu nele a toda velocidade. Outras evidências também são fornecidas quando, durante um test drive, o sistema FSD se comportou de forma inadequada, fazendo com que o carro cruzasse uma linha de marcação sólida e quase provocasse um acidente em um cruzamento. Verificou-se também que o sistema FSD não reconhece bem os sinais de emergência, o que leva a colisões de veículos.
Uma investigação do The Wall Street Journal encontrou problemas com hardware e software no Autopilot, desde atualizações lentas de algoritmo até calibração insuficiente da câmera. Não está claro se estes dados são suficientes para refutar a afirmação de Elon Musk de que o sistema de Tesla ainda é mais seguro do que um condutor humano.