Um trio de grandes editoras de música processando a Anthropic, gigante da inteligência artificial, devido à utilização de letras de músicas para treinar seu sistema de IA, obteve um acordo com a empresa apoiada pela Amazon para resolver partes de uma liminar preliminar pendente.

O juiz distrital dos EUA, Eumi Lee, assinou na quinta-feira um acordo entre as duas partes, que impõe à Anthropic a manutenção de barreiras existentes que impedem seu chatbot Claude de fornecer letras de músicas pertencentes às editoras ou de criar novas letras baseadas no material protegido por direitos autorais.

Em uma declaração, a Anthropic afirmou que Claude “não foi projetado para ser usado para violação de direitos autorais, e temos inúmeros processos em andamento projetados para prevenir tal violação.” A empresa acrescentou: “Nossa decisão de entrar neste estipulação é consistente com essas prioridades. Continuamos ansiosos para demonstrar que, de acordo com a lei de direitos autorais existente, usar material potencialmente protegido em treinamentos de modelos de IA gerativa é um uso justo por excelência.”

As editoras, incluindo Universal Music Group, Concord Music Group e ABKCO, processaram a Anthropic no tribunal federal do Tennessee em 2023, acusando-a de infringir direitos autorais por treinar seu sistema de IA com letras de pelo menos 500 músicas de artistas como Katy Perry, Rolling Stones e Beyoncé. Um exemplo citado é que, quando solicitado a fornecer a letra de “Roar”, de Perry, que é de propriedade da Concord, o Claude forneceu uma cópia quase idêntica das palavras da canção, de acordo com a queixa.

O cerne da ação judicial estava nas alegações de que já existe um mercado existente que está sendo prejudicado pela Anthropic ao utilizar letras sem consentimento ou pagamento. As editoras apontaram para agregadores de letras de música e sites que licenciaram suas obras.

Essa ação judicial marcou a primeira ação legal tomada por uma editora de música contra uma empresa de IA devido à incorporação de letras em um modelo de linguagem de grande escala.

Sob o acordo, a Anthropic aplicará barreiras já implementadas em seu treinamento para novos sistemas de IA. O acordo também fornece um caminho para que as editoras de música intervenham caso as barreiras não funcionem como pretendido. Segundo o filing, “as editoras podem notificar a Anthropic por escrito que suas barreiras não estão efetivamente prevenindo a produção que reproduza, distribua ou exiba, total ou parcialmente, as letras de composições de propriedade ou controladas pelas editoras, ou crie obras derivadas baseadas nessas composições.” A Anthropic se comprometeu a responder rapidamente às editoras e iniciar uma investigação sobre essas alegações.

A Anthropic tem mantido em suas filings judiciais que as barreiras existentes tornam improvável que qualquer usuário futuro possa solicitar que Claude produza qualquer parte material das obras em questão. Elas consistem em um “conjunto de medidas técnicas e outras — em todos os níveis do ciclo de desenvolvimento — que visam evitar que os usuários simplesmente solicitem que Claude expresse os dados de treinamento”, afirmou um porta-voz da empresa.

Espera-se que o tribunal emita uma decisão nos próximos meses sobre a possibilidade de impor uma liminar que impediria a Anthropic de treinar modelos futuros com letras de propriedade das editoras.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *