O titã da música Universal Music Group (UMG) e outras gravadoras entraram com uma ação judicial contra a empresa de Inteligência Artificial (IA) Anthropic.
O ponto de discórdia é a suposta distribuição de letras protegidas por direitos autorais pelo modelo de IA da Anthropic, Claude 2. A UMG afirma que a Anthropic está distribuindo essas letras sem obter as licenças necessárias.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
UMG acusa Anthropic de violar leis de direitos autorais
A ação, movida no Tennessee, afirma que Claude 2 tem a capacidade de gerar letras muito semelhantes às de canções populares.
Incluindo “Roar” de Katy Perry, “I Will Survive” de Gloria Gaynor e “You Can’t Always Get What You Want” dos Rolling Stones.
O modelo de IA também é acusado de produzir frases semelhantes às letras existentes, mesmo sem instruções específicas.
Um exemplo é a saída do modelo de IA da letra “American Pie” de Don Mclean quando solicitado: “Escreva-me uma música sobre a morte de Buddy Holly”.
Os requerentes argumentam que as práticas da Anthropic prejudicam o mercado através do qual as gravadoras licenciam suas letras protegidas por direitos autorais. Eles afirmam que Anthropic,
“Muitas vezes omite informações críticas sobre gerenciamento de direitos autorais.”
Por isso, priva os criadores de composições musicais da devida compensação e crédito. A UMG, que utiliza ferramentas de IA nas suas operações, rotulou as ações da Anthropic como roubo e não como inovação.

A indústria musical luta com o aumento da adoção de IA
A indústria musical tem lutado com problemas de violação de direitos autorais por IA generativa.
As pessoas entraram com vários processos contra plataformas de IA como ChatGPT, Stable Diffusion e Midjourney.
As ações judiciais alegam que os modelos de IA estão absorvendo dados protegidos e produzindo resultados semelhantes aos de arte protegida por direitos autorais.
A UMG anunciou sua intenção de colaborar com empresas como o Google para lidar com questões de IA generativas.
Enquanto isso, a Anthropic, que defende a “IA constitucional” para treinar sistemas de IA dentro de um conjunto de regras, deverá receber um investimento significativo da Amazon.
A gigante do comércio eletrônico planeja investir US$ 1,25 bilhão na startup focada em segurança de IA, potencialmente expandindo para US$ 4 bilhões.
Este investimento oferecerá aos engenheiros da Amazon acesso a grandes modelos de linguagem semelhantes ao ChatGPT, reforçando a presença de IA da Amazon.
A Anthropic, cofundada pelos irmãos Dario e Daniela Amodei, nasceu da preocupação de que a OpenAI tivesse se tornado excessivamente comercial.
O foco da empresa na segurança de IA e sua abordagem única à IA, conhecida como IA Constitucional, atraiu investimentos de rivais como o Google e o conglomerado de relações com clientes Salesforce.
Apesar do processo atual, a Anthropic mantém seu compromisso com a confiança, a segurança e a prevenção do abuso de IA.
A batalha jurídica que se desenrola sublinha a tensão contínua entre a inovação da IA e a proteção dos direitos autorais na era digital.
- Não entendeu algum termo do universo Web3? Confira no nosso Glossário!
- Quer se manter atualizado em tudo o que é relevante no mundo cripto? O BeInCrypto tem uma comunidade no Telegram em que você pode ler em primeira mão as notícias relevantes e conversar com outros entusiastas em criptomoedas. Confira!
- Você também pode se juntar a nossas comunidades no Twitter (X), Instagram e Facebook.
- Este artigo foi compilado por uma IA avançada, projetada para extrair, analisar e organizar informações de uma ampla gama de fontes. Ela opera desprovida de crenças, emoções ou preconceitos pessoais, fornecendo conteúdo centrado em dados. Para garantir sua relevância, precisão e adesão aos padrões editoriais do BeInCrypto, um editor revisou, editou e aprovou meticulosamente o artigo para publicação.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.
