A Anthropic chegou a um acordo com editoras musicais em uma ação judicial sobre recontagem ilegal de músicas de IA

A Anthropic, desenvolvedora do chatbot AI Claude, chegou a um acordo com três grandes editoras musicais para resolver parte de um processo de violação de direitos autorais relacionado ao suposto uso de letras de músicas protegidas.

Fonte da imagem: Anthropic See More

A juíza distrital dos EUA, Eumi Lee, aprovou um acordo entre as partes na quinta-feira que exige que a Antrópica cumpra as restrições existentes ao treinar futuros modelos de IA. Essas restrições impedem que o chatbot Claude forneça aos usuários letras de músicas de propriedade de editoras musicais ou crie novas letras com base em material protegido por direitos autorais. O acordo também define o procedimento de intervenção das editoras musicais em casos de suspeita de violação de direitos autorais por parte da Anthropic.

Em outubro de 2023, várias editoras musicais, incluindo Universal Music Group, ABKCO, Concord Music Group e Greg Nelson Music, entraram com uma ação contra a Anthropic no tribunal federal do Tennessee, acusando a empresa de violação de direitos autorais. De acordo com os demandantes, a Anthropic supostamente treinou seus modelos de IA nas letras de pelo menos 500 músicas protegidas. O processo alega que quando Claude foi solicitado a fornecer letras de músicas como Halo, de Beyoncé, Uptown Funk, de Mark Ronson, e Moves Like Jagger, do Maroon 5, o chatbot forneceu respostas “contendo todas ou uma parte significativa dessas letras”.

As editoras musicais destacaram que existem plataformas como a Genius que distribuem legalmente letras de músicas online e pagam taxas de licenciamento para isso, ao contrário da Anthropic. O processo também alega que a empresa “removeu ou alterou intencionalmente informações de gerenciamento de direitos autorais” de músicas cujas letras foram usadas para treinar seus modelos de IA.

Claude “não se destina a ser usado para fins de violação de direitos autorais e temos inúmeras ferramentas para evitar tal violação”, disse a Anthropic em comunicado ao The Hollywood Reporter. “Nossa decisão de celebrar este acordo é consistente com essas prioridades.”

Deve-se notar que o acordo trata apenas de parte da reivindicação. Espera-se que o tribunal decida nos próximos meses sobre uma liminar contra o treinamento dos modelos de IA da empresa em letras de músicas de propriedade de editoras musicais.

avalanche

Postagens recentes

A Microsoft continuará a portar recursos do Windows 11 24H2 para o Windows 11 23H2

O Windows 11 23H2 incluirá novos recursos, incluindo alguns que já estavam incluídos no Windows…

17 minutos atrás

Novo malware Android FireScam se disfarça de mensageiro do Telegram e rouba dados do usuário

Especialistas da empresa de segurança da informação Cyfirma descobriram um novo aplicativo malicioso chamado FireScam…

3 horas atrás

Um anel irregular de 2,5 metros caiu do espaço no Quênia

Um enorme pedaço de lixo espacial caiu no território de uma aldeia queniana há alguns…

5 horas atrás

Os óculos de realidade aumentada RayNeo usarão os modelos de IA do Alibaba

Esta semana, a gigante chinesa Alibaba demonstrou seu desejo de ter uma presença indireta no…

11 horas atrás