Categorias: Sem categoria

O Tribunal Superior da Inglaterra expôs advogados que usam IA – eles citaram precedentes falsos

O Tribunal Superior da Inglaterra e do País de Gales alertou advogados de que o uso de informações geradas por inteligência artificial em autos judiciais pode resultar em responsabilidade criminal. O anúncio foi feito após advogados terem citado decisões judiciais inexistentes e sentenças fictícias, segundo o The New York Times.

Fonte da imagem: AI

«“Pode haver consequências graves para a justiça e a confiança no sistema se a IA for usada incorretamente”, disse a juíza Sharp. Ela enfatizou que advogados podem ser processados ​​ou cassados ​​por fornecer dados falsos gerados pela IA. Ela também observou que ferramentas como o ChatGPT “não são capazes de conduzir pesquisas jurídicas confiáveis” e podem produzir alegações confiáveis, mas totalmente falsas, ou fazer referência a fontes de casos inexistentes.

Em um caso, um homem exigiu milhões em indenização por supostas violações de termos contratuais por bancos. Posteriormente, ele admitiu ter gerado links para a prática por meio de ferramentas de IA e recursos online, acreditando que os materiais eram autênticos. Seu advogado, por sua vez, afirmou que se baseou na pesquisa do cliente e não verificou as informações de forma independente.

Em outro caso, uma advogada que representava um homem que havia sido despejado de sua casa em Londres e precisava de acomodação também utilizou links gerados e não conseguiu explicar sua origem. No entanto, o tribunal suspeitou do uso de IA devido à grafia americana das palavras e ao estilo do modelo de texto. A própria advogada negou o uso de tecnologia de IA, mas admitiu ter adicionado dados falsos semelhantes em outro caso. Ela também afirmou ter utilizado o Google e o Safari com resumos de IA de seus resultados de pesquisa.

Curiosamente, a empresa Vectara, do Vale do Silício (Califórnia, EUA), que estuda respostas de IA desde 2023, descobriu que mesmo os melhores chatbots cometem erros em 0,7% a 2,2% dos casos. Além disso, o nível de “alucinações” aumenta drasticamente quando os sistemas precisam gerar textos extensos do zero. A OpenAI também relatou recentemente que seus novos modelos cometem erros em 51% a 79% dos casos ao responder a perguntas gerais.

Embora a juíza Sharp tenha reconhecido que a IA é uma ferramenta poderosa, ela também afirmou que seu uso traz riscos. Sharp também citou exemplos dos EUA, Austrália, Canadá e Nova Zelândia, onde a IA interpretou mal as leis ou criou citações fictícias.

admin

Postagens recentes

Elon Musk garantiu que a SpaceX AI e a Tesla continuarão comprando chips da Nvidia em grandes quantidades.

A intensa discussão em torno dos planos da Tesla de produzir seus chips de IA…

39 minutos atrás

A Micron anunciou que aumentará significativamente seus investimentos para combater a escassez de memória.

Esta semana, a empresa americana Micron Technology divulgou seus resultados do segundo trimestre fiscal de…

59 minutos atrás

Mais um engenheiro de alto escalão da Apple deixou a empresa em meio a dificuldades relacionadas à Siri.

Os problemas com a modernização da assistente de voz Siri e o desenvolvimento da inteligência…

3 horas atrás

O fundador da Nikola Motor, que já foi condenado, está agora angariando fundos para criar aviões controlados por inteligência artificial.

Que os fundadores de startups precisam ter uma boa dose de espírito aventureiro pode ser…

4 horas atrás

A Colorful lançou a placa gráfica iGame GeForce RTX 5070 Ti Ultra Z Black OC com um conector de alimentação GC-HPWR removível.

A Colorful apresentou a placa de vídeo iGame GeForce RTX 5070 Ti Ultra Z Black…

9 horas atrás