Um erro no sistema de reconhecimento facial levou à prisão de um inocente

O uso de um sistema de reconhecimento facial da polícia baseado em algoritmos de inteligência artificial pela primeira vez levou à prisão de uma pessoa inocente. Ela o confundiu com um verdadeiro criminoso.

De acordo com o jornal The New York Times, a polícia da cidade americana de Detroit em janeiro deste ano deteve um certo Robert Julian-Borchak Williams para verificar. Depois que Williams foi levado para a delegacia, ele foi preso porque o sistema de reconhecimento facial o identificou como um criminoso que cometeu um roubo de loja em 2018. Como se viu depois, um sistema baseado em algoritmos de IA cometeu um erro, mas Williams ainda tinha que passar 30 horas atrás das grades até que os policiais descobrissem a situação.

Os opositores dos sistemas de reconhecimento facial há muito alegam que essa tecnologia ainda não é perfeita o suficiente para procurar e identificar com precisão criminosos. Os desenvolvedores de tais sistemas alertaram repetidamente a aplicação da lei de usá-los como a única ferramenta confiável e confiável para detenção. Mas, como se viu, no caso de Williams, esse sistema era a única “evidência” a favor da prisão de uma pessoa inocente.

Vale ressaltar que o software de identificação de rosto usado pela polícia de Detroit e os resultados do teste de Williams mostraram a seguinte mensagem: “Este documento não é um identificador positivo. É apenas uma versão investigativa e não constitui motivo para detenção. ”

Depois de pagar a fiança, Williams foi libertada e, quando descobriram a situação, até pediram desculpas. Mas esse caso criou um precedente que aponta para um problema muito mais amplo – ainda não é possível confiar totalmente nos algoritmos de inteligência artificial.

«Eu suspeito seriamente que este não seja o primeiro caso de erro no sistema que resultou na prisão de uma pessoa que não cometeu um crime. Provavelmente, esta é apenas a primeira vez que o público toma conhecimento disso ”, concluiu a advogada Clare Garvie, a quem o The New York Times se voltou para comentar.

avalanche

Postagens recentes

A pesquisa na web ChatGPT era vulnerável a manipulação e engano

Descobriu-se que o serviço de pesquisa OpenAI ChatGPT está aberto à manipulação usando conteúdo oculto…

9 minutos atrás

A indústria automobilística chinesa enfrenta uma crise sistémica devido ao não pagamento e à guerra de preços

Como exemplo de alguns dos processos destrutivos que ocorrem na indústria automotiva chinesa, o DigiTimes…

2 horas atrás

OpenAI está considerando lançar robôs humanóides

A OpenAI está considerando a possibilidade de produzir robôs humanóides, cuja base de software poderia…

2 horas atrás

Sinopse: IA colaborará diretamente com IA no design de chips em 2025

Recentemente, o chefe de estratégia de desenvolvimento de tecnologia de IA da Synopsys, Stelios Diamantidis,…

2 horas atrás