A Anthropic chegou a um acordo com editoras musicais em uma ação judicial sobre recontagem ilegal de músicas de IA

A Anthropic, desenvolvedora do chatbot AI Claude, chegou a um acordo com três grandes editoras musicais para resolver parte de um processo de violação de direitos autorais relacionado ao suposto uso de letras de músicas protegidas.

Fonte da imagem: Anthropic See More

A juíza distrital dos EUA, Eumi Lee, aprovou um acordo entre as partes na quinta-feira que exige que a Antrópica cumpra as restrições existentes ao treinar futuros modelos de IA. Essas restrições impedem que o chatbot Claude forneça aos usuários letras de músicas de propriedade de editoras musicais ou crie novas letras com base em material protegido por direitos autorais. O acordo também define o procedimento de intervenção das editoras musicais em casos de suspeita de violação de direitos autorais por parte da Anthropic.

Em outubro de 2023, várias editoras musicais, incluindo Universal Music Group, ABKCO, Concord Music Group e Greg Nelson Music, entraram com uma ação contra a Anthropic no tribunal federal do Tennessee, acusando a empresa de violação de direitos autorais. De acordo com os demandantes, a Anthropic supostamente treinou seus modelos de IA nas letras de pelo menos 500 músicas protegidas. O processo alega que quando Claude foi solicitado a fornecer letras de músicas como Halo, de Beyoncé, Uptown Funk, de Mark Ronson, e Moves Like Jagger, do Maroon 5, o chatbot forneceu respostas “contendo todas ou uma parte significativa dessas letras”.

As editoras musicais destacaram que existem plataformas como a Genius que distribuem legalmente letras de músicas online e pagam taxas de licenciamento para isso, ao contrário da Anthropic. O processo também alega que a empresa “removeu ou alterou intencionalmente informações de gerenciamento de direitos autorais” de músicas cujas letras foram usadas para treinar seus modelos de IA.

Claude “não se destina a ser usado para fins de violação de direitos autorais e temos inúmeras ferramentas para evitar tal violação”, disse a Anthropic em comunicado ao The Hollywood Reporter. “Nossa decisão de celebrar este acordo é consistente com essas prioridades.”

Deve-se notar que o acordo trata apenas de parte da reivindicação. Espera-se que o tribunal decida nos próximos meses sobre uma liminar contra o treinamento dos modelos de IA da empresa em letras de músicas de propriedade de editoras musicais.

avalanche

Postagens recentes

Robôs-lobos assustadores se tornaram a nova arma do Japão para combater ursos.

O aumento da incidência de ataques de animais selvagens a pessoas no Japão no último…

31 minutos atrás

A startup de um cientista da NASA anunciou o desenvolvimento de uma fonte de energia inesgotável que utiliza energia do vácuo.

A startup recém-apresentada, Casimir, anunciou um desenvolvimento notável: uma fonte de energia inesgotável alimentada por…

1 hora atrás

O AMD EPYC conquista uma fatia recorde de 46,2% do mercado de processadores para servidores, tudo graças a agentes de IA.

Os processadores para servidores da AMD demonstraram um sucesso significativo: ao final do primeiro trimestre…

1 hora atrás

Bem-vindos ao Volnapocalipse: a IA está encontrando vulnerabilidades mais rápido do que conseguimos corrigi-las.

A Palo Alto Networks, empresa de cibersegurança sediada na Califórnia, normalmente corrige cinco vulnerabilidades por…

2 horas atrás

Claude Antrópico ajudou a recuperar o equivalente a US$ 400.000 em Bitcoin, mas ele não invadiu a blockchain.

O usuário de mídia social X, apelidado de Cprkrn, compartilhou como o assistente de inteligência…

2 horas atrás