A OpenAI disse no tribunal que o New York Times (NYT) “pagou alguém para hackear produtos OpenAI”, como o ChatGPT, a fim de obter evidências para processar a OpenAI por violação de direitos autorais. A OpenAI acredita que os mais de cem exemplos em que o modelo GPT-4 gera conteúdo do Times como saída não refletem o uso normal do ChatGPT, mas representam “ataques planejados por um mercenário” que persuadiu o chatbot a gerar conteúdo falso do NYT.

Fonte da imagem: pexels.com

A OpenAI acusou o NYT de fazer “dezenas de milhares de tentativas” para obter esses “resultados altamente anômalos” ao “identificar e explorar um bug” que a própria OpenAI “procura consertar”. O NYT supostamente lançou esses ataques para reunir evidências que apoiassem a alegação de que os produtos da OpenAI estavam colocando em risco o jornalismo ao copiar conteúdo e reportagens originais e, assim, roubar audiências do NYT.

«Ao contrário das alegações [contidas na reclamação do NYT], o ChatGPT não substitui de forma alguma uma assinatura do The New York Times, disse a OpenAI em uma moção buscando rejeitar a maioria das reivindicações do NYT. – No mundo real, as pessoas não usam ChatGPT ou qualquer outro produto OpenAI para esta finalidade. E eles não podem. No mundo normal, não é possível usar o ChatGPT para veicular artigos do Times à vontade.”

Fonte da imagem: unsplash.com

A OpenAI observou que os exemplos no processo do NYT não citam histórias atuais que os assinantes do Times possam ler no site do Times, mas sim artigos muito mais antigos publicados antes de 2022. Isto enfraquece ainda mais a afirmação do NYT de que o ChatGPT pode ser considerado um substituto para a publicação.

«

Os advogados do NYT enfatizaram que a OpenAI “não contesta e não pode contestar que copiou milhões de obras para criar e apoiar seus produtos comerciais sem nossa permissão”. A posição da publicação é que a criação de novos produtos não é desculpa para violar a lei de direitos autorais, e é exatamente isso que a OpenAI fez em uma escala sem precedentes.

A OpenAI disse que o NYT vem desenvolvendo com entusiasmo seus próprios chatbots há anos, sem medo de violação de direitos autorais. A OpenAI relatou o uso de artigos do NYT para treinar seus modelos de IA em 2020, mas o NYT só ficou preocupado depois que a popularidade do ChatGPT explodiu em 2023. O NYT então acusou a OpenAI de violação de direitos autorais e exigiu “termos comerciais” e, após meses de discussões, abriu um processo multibilionário.

A OpenAI está instando o tribunal a rejeitar as reivindicações que buscam proteção direta dos direitos autorais do milênio digital e ignorar as alegações de apropriação indébita que a empresa chama de “legalmente nulas”. Algumas das reclamações estão prescritas, enquanto outras, afirma a OpenAI, interpretam mal o uso justo ou deturpam as leis federais.

Se a moção da OpenAI for concedida, o processo do NYT terá apenas alegações de violação indireta de direitos autorais e diluição de marca registrada. Mas se o NYT vencer na Justiça (e a probabilidade disso não ser tão pequena), a OpenAI pode ter que literalmente “apagar” o ChatGPT e começar a treinar os modelos novamente.

A OpenAI afirma que o NYT usou dicas enganosas para enganar o ChatGPT e fazê-lo revelar dados de treinamento. O Times supostamente pediu ao chatbot que fornecesse o parágrafo introdutório de um artigo específico e depois pediu a “próxima frase”. Mas mesmo esta tática não ajudará a reconstruir o artigo inteiro, mas sim produzirá uma coleção de “citações dispersas e desorganizadas”. A OpenAI acredita que o NYT está deliberadamente enganando o tribunal ao usar cortes e reticências para ocultar a ordem em que o ChatGPT produziu segmentos de reportagem, criando assim a falsa impressão de que o ChatGPT produziu cópias sequenciais e contínuas de artigos.

A OpenAI também rejeitou exemplos de alucinações de IA fornecidos pelo NYT, onde modelos de IA inventaram artigos aparentemente realistas que continham fatos incorretos e nunca foram publicados pela publicação. Como nenhum dos links nesses artigos fictícios funcionou, a OpenAI acredita que “qualquer usuário exposto a tal resultado o reconheceria imediatamente como uma alucinação”.

A OpenAI planeja corrigir erros de IA, mas isso só será possível se vencer na Justiça. A OpenAI precisa de convencer os tribunais de muitas jurisdições da sua teoria de utilização justa de textos protegidos por direitos de autor, o que é fundamental para o desenvolvimento dos seus modelos de IA. “Um objetivo contínuo do desenvolvimento de IA é minimizar e, em última análise, eliminar alucinações, inclusive usando conjuntos de dados de treinamento mais completos para melhorar a precisão do modelo”, disse OpenAI.

Os advogados do NYT acreditam que, para a OpenAI, “a cópia ilegal e a desinformação são características essenciais de seus produtos, e não o resultado de comportamento marginal”. Segundo eles, o OpenAI “rastreia as consultas e os resultados dos usuários, o que é especialmente surpreendente, visto que eles alegaram não fazê-lo. Estamos ansiosos para explorar esta questão.”

Os desenvolvedores de grandes modelos de linguagem estão cada vez mais recorrendo ao licenciamento, em vez de treinar em dados disponíveis publicamente, para evitar possíveis acusações de violação de direitos autorais. “O desenvolvimento de tecnologia para cumprir as leis de direitos autorais estabelecidas é uma prioridade em todo o setor”, disse o consultor-chefe do NYT, Ian Crosby. “A decisão da OpenAI e de outros desenvolvedores de IA generativa de fechar acordos com editores de notícias apenas confirma que eles sabem que o uso não autorizado de obras protegidas por direitos autorais está longe de ser justo.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *