A OpenAI afirmou ter sido forçada a armazenar o histórico do ChatGPT dos usuários “por tempo indeterminado” devido a uma decisão judicial em um processo de direitos autorais movido pelo The New York Times. A empresa planeja recorrer da decisão, que considera “excessivamente intrusiva, anulando normas de privacidade aceitas e enfraquecendo a segurança”.

Fonte da imagem: unsplash.com
O New York Times está processando a OpenAI e a Microsoft por violação de direitos autorais em 2023, acusando as empresas de “copiar e usar milhões” de materiais para treinar modelos de IA. O Times argumenta que somente a preservação dos dados dos usuários até o final do julgamento garantirá que ele possa fornecer as evidências necessárias para sustentar sua alegação.
Em novembro de 2024, soube-se que engenheiros da OpenAI teriam apagado acidentalmente dados que poderiam servir como prova da culpa do desenvolvedor do algoritmo de IA em violação de direitos autorais. A empresa reconheceu o erro e tentou restaurar os dados, mas não conseguiu fazê-lo integralmente. Os mesmos dados restaurados não nos permitiram determinar se as publicações foram usadas para treinar redes neurais.
Assim, em maio de 2025, o tribunal ordenou que a OpenAI preservasse “todos os registros de saída que, de outra forma, seriam excluídos”, mesmo que um usuário solicite a exclusão de um chat ou se as leis de privacidade exigirem que a OpenAI exclua os dados. De acordo com a política da OpenAI, se um usuário excluir um chat, ele será excluído permanentemente após 30 dias. A empresa agora terá que armazenar os chats até que um tribunal decida o contrário.
A OpenAI afirmou que a decisão afetará os usuários da versão gratuita do ChatGPT, bem como as assinaturas Pro, Plus e Team. A decisão não afetará os clientes do ChatGPT Enterprise ou ChatGPT Edu, nem empresas com contratos de retenção de dados zero. A OpenAI afirmou que os dados não serão disponibilizados publicamente e serão usados por “uma pequena e rigorosa equipe jurídica e de segurança da OpenAI” apenas para fins legais.
«”Acreditamos que esta foi uma solicitação inadequada que estabelece um precedente ruim. Combateremos qualquer solicitação que comprometa a privacidade de nossos usuários; esse é o nosso princípio fundamental”, respondeu Sam Altman, CEO da OpenAI.
A OpenAI acusou anteriormente o The New York Times de fazer “dezenas de milhares de tentativas” para produzir esses “resultados altamente anômalos” ao “identificar e explorar um bug” que a própria OpenAI “busca corrigir”. O Times supostamente orquestrou esses ataques para reunir evidências que sustentassem sua alegação de que os produtos da OpenAI estavam comprometendo o jornalismo ao copiar histórias e reportagens originais, roubando, assim, o público dos criadores de conteúdo.
O New York Times não está sozinho em suas acusações contra a OpenAI. Em maio de 2024, oito publicações online entraram com uma ação judicial contra a OpenAI e a Microsoft por usarem ilegalmente artigos para treinar IA. Os autores acusam a OpenAI de copiar ilegalmente milhões de artigos do New York Daily News, Chicago Tribune, Orlando Sentinel, Sun Sentinel, The Mercury News, The Denver Post, The Orange County Register e Pioneer Press para treinar seus modelos de linguagem.
