Categorias: Sem categoria

O Tribunal Superior da Inglaterra expôs advogados que usam IA – eles citaram precedentes falsos

O Tribunal Superior da Inglaterra e do País de Gales alertou advogados de que o uso de informações geradas por inteligência artificial em autos judiciais pode resultar em responsabilidade criminal. O anúncio foi feito após advogados terem citado decisões judiciais inexistentes e sentenças fictícias, segundo o The New York Times.

Fonte da imagem: AI

«“Pode haver consequências graves para a justiça e a confiança no sistema se a IA for usada incorretamente”, disse a juíza Sharp. Ela enfatizou que advogados podem ser processados ​​ou cassados ​​por fornecer dados falsos gerados pela IA. Ela também observou que ferramentas como o ChatGPT “não são capazes de conduzir pesquisas jurídicas confiáveis” e podem produzir alegações confiáveis, mas totalmente falsas, ou fazer referência a fontes de casos inexistentes.

Em um caso, um homem exigiu milhões em indenização por supostas violações de termos contratuais por bancos. Posteriormente, ele admitiu ter gerado links para a prática por meio de ferramentas de IA e recursos online, acreditando que os materiais eram autênticos. Seu advogado, por sua vez, afirmou que se baseou na pesquisa do cliente e não verificou as informações de forma independente.

Em outro caso, uma advogada que representava um homem que havia sido despejado de sua casa em Londres e precisava de acomodação também utilizou links gerados e não conseguiu explicar sua origem. No entanto, o tribunal suspeitou do uso de IA devido à grafia americana das palavras e ao estilo do modelo de texto. A própria advogada negou o uso de tecnologia de IA, mas admitiu ter adicionado dados falsos semelhantes em outro caso. Ela também afirmou ter utilizado o Google e o Safari com resumos de IA de seus resultados de pesquisa.

Curiosamente, a empresa Vectara, do Vale do Silício (Califórnia, EUA), que estuda respostas de IA desde 2023, descobriu que mesmo os melhores chatbots cometem erros em 0,7% a 2,2% dos casos. Além disso, o nível de “alucinações” aumenta drasticamente quando os sistemas precisam gerar textos extensos do zero. A OpenAI também relatou recentemente que seus novos modelos cometem erros em 51% a 79% dos casos ao responder a perguntas gerais.

Embora a juíza Sharp tenha reconhecido que a IA é uma ferramenta poderosa, ela também afirmou que seu uso traz riscos. Sharp também citou exemplos dos EUA, Austrália, Canadá e Nova Zelândia, onde a IA interpretou mal as leis ou criou citações fictícias.

admin

Postagens recentes

O Japão está enfrentando uma escassez de placas de vídeo, com o problema afetando atualmente os modelos GeForce RTX 5060 Ti de 16 GB e superiores.

Segundo a ITmedia, surgiu uma escassez de aceleradores gráficos de alta gama no mercado japonês.…

1 hora atrás

O Instagram vazou dados de 17,5 milhões de contas, e esses dados já estão sendo usados ​​por hackers.

A empresa de software de cibersegurança Malwarebytes anunciou uma violação de dados confirmada que afetou…

2 horas atrás

A IBM declarou 2026 como o ano em que a computação quântica irá surgir.

Na CES 2026, a IBM lotou o auditório com uma apresentação fascinante sobre o iminente…

4 horas atrás

O setor de tecnologia perderá mais de 240.000 empregos até 2025.

Segundo a RationalFX, 244.851 pessoas foram demitidas no setor de tecnologia global no ano passado.…

4 horas atrás

A China domina a conversão de placas gráficas GeForce RTX para uso em fazendas de IA.

As placas gráficas Nvidia GeForce para consumidores, com ventoinhas tipo turbina redesenhadas para cargas de…

5 horas atrás

A Asus aumentou a ROM UEFI nas placas-mãe AM5 para 64 MB — e agora inclui até mesmo um driver de Wi-Fi.

A Asus confirmou que suas novas placas-mãe da série AMD 800 para a plataforma AM5…

5 horas atrás