A Anthropic chegou a um acordo com editoras musicais em uma ação judicial sobre recontagem ilegal de músicas de IA

A Anthropic, desenvolvedora do chatbot AI Claude, chegou a um acordo com três grandes editoras musicais para resolver parte de um processo de violação de direitos autorais relacionado ao suposto uso de letras de músicas protegidas.

Fonte da imagem: Anthropic See More

A juíza distrital dos EUA, Eumi Lee, aprovou um acordo entre as partes na quinta-feira que exige que a Antrópica cumpra as restrições existentes ao treinar futuros modelos de IA. Essas restrições impedem que o chatbot Claude forneça aos usuários letras de músicas de propriedade de editoras musicais ou crie novas letras com base em material protegido por direitos autorais. O acordo também define o procedimento de intervenção das editoras musicais em casos de suspeita de violação de direitos autorais por parte da Anthropic.

Em outubro de 2023, várias editoras musicais, incluindo Universal Music Group, ABKCO, Concord Music Group e Greg Nelson Music, entraram com uma ação contra a Anthropic no tribunal federal do Tennessee, acusando a empresa de violação de direitos autorais. De acordo com os demandantes, a Anthropic supostamente treinou seus modelos de IA nas letras de pelo menos 500 músicas protegidas. O processo alega que quando Claude foi solicitado a fornecer letras de músicas como Halo, de Beyoncé, Uptown Funk, de Mark Ronson, e Moves Like Jagger, do Maroon 5, o chatbot forneceu respostas “contendo todas ou uma parte significativa dessas letras”.

As editoras musicais destacaram que existem plataformas como a Genius que distribuem legalmente letras de músicas online e pagam taxas de licenciamento para isso, ao contrário da Anthropic. O processo também alega que a empresa “removeu ou alterou intencionalmente informações de gerenciamento de direitos autorais” de músicas cujas letras foram usadas para treinar seus modelos de IA.

Claude “não se destina a ser usado para fins de violação de direitos autorais e temos inúmeras ferramentas para evitar tal violação”, disse a Anthropic em comunicado ao The Hollywood Reporter. “Nossa decisão de celebrar este acordo é consistente com essas prioridades.”

Deve-se notar que o acordo trata apenas de parte da reivindicação. Espera-se que o tribunal decida nos próximos meses sobre uma liminar contra o treinamento dos modelos de IA da empresa em letras de músicas de propriedade de editoras musicais.

avalanche

Postagens recentes

Os primeiros laptops com Windows equipados com Snapdragon X2 Elite e X2 Plus serão lançados na próxima semana.

Anunciados há alguns meses, os processadores Snapdragon X2 Elite de última geração da Qualcomm para…

5 horas atrás

Os primeiros laptops com Windows equipados com Snapdragon X2 Elite e X2 Plus serão lançados na próxima semana.

Anunciados há alguns meses, os processadores Snapdragon X2 Elite de última geração da Qualcomm para…

5 horas atrás

A Rockchip apresenta kits de desenvolvimento com módulos de IA RK1820/RK1828 no formato SO-DIMM.

A Rockchip, segundo a CNX Software, anunciou o kit de desenvolvimento RK182X 3D RAM Stacking,…

7 horas atrás

Nadella reformulou a Microsoft após o esfriamento das relações com a OpenAI.

Após a renegociação da parceria com a OpenAI, que fará com que a Microsoft perca…

10 horas atrás

O steampunk está dando uma pausa: um radiador de ferro fundido da era vitoriana foi acoplado a um PC gamer para melhorar o resfriamento.

A Billet Labs, uma pequena empresa britânica com um histórico de criação de sistemas de…

10 horas atrás

A China está pronta para iniciar a implantação em massa de robôs humanoides antes dos EUA.

Nos últimos anos, a China tornou a robótica um foco central de sua estratégia tecnológica,…

10 horas atrás