Ganhando popularidade rapidamente, os chatbots baseados em IA podem passar fatos fictícios como verdade, levando os usuários a conclusões falsas. Esse recurso enganou o advogado Steven Schwartz, do escritório de advocacia Levidow, Levidow & Oberman, que usou o chatbot ChatGPT AI no caso de seu cliente Roberto Mata.

Fonte da imagem: Jonathan Kemper

Roberto Mata processou a Avianca por lesões causadas por uma colisão com um carrinho de serviço durante um voo em 2019, alegando negligência do funcionário. Steven Schwartz, advogado da Levidow, Levidow & Oberman, licenciado para praticar em Nova York por mais de três décadas, contou com a ajuda do ChatGPT para coletar dados sobre processos semelhantes anteriores que teriam favorecido seu cliente.

Acontece que o ChatGPT forneceu a ele fatos fictícios, razão pela qual o advogado agora corre o risco de perder sua licença. No final de abril, os advogados da Avianca na Condon & Forsyth enviaram uma carta ao juiz Kevin Castel, do Tribunal do Distrito Federal do Distrito Sul de Nova York, questionando a autenticidade dos casos citados pelo advogado.

O juiz, após revisão, observou na decisão que pelo menos seis dos casos apresentados por Schwartz como precedentes “parecem ser julgamentos fictícios com citações fictícias e referências internas fictícias à fonte”.

Schwartz, em uma declaração juramentada por escrito em 25 de abril, disse que, antes deste caso, nunca havia usado o ChatGPT como fonte de informações legais e, portanto, “desconhecia a possibilidade de que seu conteúdo pudesse ser falso”. Ele acrescentou que “lamenta muito o uso de inteligência artificial generativa para complementar a pesquisa jurídica feita aqui e nunca o fará no futuro sem a verificação absoluta de sua autenticidade”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *