▲
- A Anthropic concordou em pagar US$ 1,5 bilhão para encerrar um processo sobre o uso não autorizado de livros para treinar sistemas de IA.
- Você deve ficar atento, pois essa decisão pode impactar como empresas usam obras protegidas para criar tecnologias baseadas em inteligência artificial.
- O acordo cria um precedente que pode influenciar outras empresas e incentivar autores a reivindicar seus direitos autorais contra o uso indevido.
- Além da compensação financeira, a Anthropic deve destruir materiais ilegais usados no treinamento, reforçando a seriedade das acusações.
A Anthropic, empresa por trás dos modelos de linguagem Claude, chegou a um acordo de direitos autorais de 1,5 bilhão de dólares com um grupo de autores. Este valor representa a maior recuperação de direitos autorais já divulgada publicamente na história, conforme indicam os documentos judiciais. O acordo visa resolver o processo sobre o suposto acesso e uso de livros sem permissão para o treinamento de sistemas de inteligência artificial.
O Acordo de Direitos Autorais e seus Detalhes
O acordo alcançado pela Anthropic inclui o pagamento de 3.000 dólares por livro, além de juros. Uma parte crucial da resolução prevê que a empresa destrua os conjuntos de dados que continham o material alegadamente copiado. Esse ponto sublinha a seriedade da acusação e a necessidade de remover a fonte do material contestado.
Os autores que iniciaram o processo foram Andrea Bartz, Charles Graeber e Kirk Wallace Johnson. A ação judicial foi apresentada no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. Eles acusaram a Anthropic de infração de direitos autorais em larga escala por, supostamente, utilizar obras de bases de dados piratas para seus modelos de IA.
Curiosamente, um juiz havia decidido anteriormente, em junho, que o uso dos livros pela Anthropic para treinamento de modelos de inteligência artificial constituía “uso justo” (fair use). Mesmo com essa decisão anterior, a empresa optou por oferecer um acordo. Isso sugere uma estratégia para evitar um julgamento mais longo e dispendioso, que estava previsto para dezembro.
O processo judicial alegava que a Anthropic obteve os livros de bases de dados piratas, como Library Genesis e Pirate Library Mirror. Ao optar pelo acordo, a empresa evita as incertezas de um julgamento, que poderia resultar em termos menos favoráveis, e resolve a questão de forma definitiva.
Implicações Financeiras e para Outras Empresas de IA
A Anthropic conseguiu custear o pagamento de 1,5 bilhão de dólares graças ao recente encerramento de uma rodada de financiamento, onde levantou 13 bilhões de dólares. Essa injeção de capital elevou o valor da empresa para expressivos 183 bilhões de dólares. O financiamento foi liderado por empresas como Iconiq, Fidelity Management e Lightspeed Venture Partners.
Essas rodadas de financiamento são importantes para empresas emergentes no setor de tecnologia, como a Anthropic. Elas permitem que as companhias se concentrem no desenvolvimento de seus produtos e tecnologias sem a pressão imediata de serem financeiramente autossustentáveis, embora a viabilidade econômica seja o objetivo final de qualquer negócio. Além disso, o foco em IA continua a impulsionar investimentos significativos, como o que vemos na Samsung planejando levar IA para quase um bilhão de residências em três anos.
O desfecho deste caso serve como um aviso para outras empresas de inteligência artificial e criadores de modelos que podem ter utilizado obras protegidas por direitos autorais, obtidas de sites de pirataria. Muitas das companhias que desenvolvem grandes modelos de linguagem são suspeitas de terem usado materiais piratas em algum momento, mas geralmente desconsideraram a prática.
Agora que esses autores conseguiram um acordo com a Anthropic, abre-se um precedente. Isso pode encorajar outros autores a buscar compensação financeira de outras empresas, redefinindo as regras do jogo no setor. Assim como a Microsoft adia a liberação da ISO do Windows 11 25H2 para download e instalação, grandes empresas enfrentam desafios e ajustes em seus processos e lançamentos.
Este é um caso significativo, pois ajuda a estabelecer o que configura uma violação de direitos autorais no cenário da inteligência artificial. Com isso, são definidas novas diretrizes e um marco para futuros desafios legais no uso de dados para o treinamento de IA. A questão da ética e legalidade no desenvolvimento de IA se torna ainda mais relevante, impactando desde grandes modelos de linguagem até tecnologias como a Samsung apresenta aspirador robô com inteligência artificial capaz de detectar líquidos.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Neowin