Empresa acusada de violar direitos autoriais para treinar IA é absolvida nos EUA

Decisão considerou “uso justo” treinamento feito pela Anthropic com livros adquiridos legalmente; utilização de material pirata terá novo julgamento

IA – Em um processo movido por autores, um juiz federal americano decidiu que a Anthropic, empresa por trás da IA Claude, não violou direitos autorais ao treinar seus modelos com livros adquiridos legalmente. A sentença, proferida pelo juiz William Alsup na segunda-feira (23), enquadrou a prática na doutrina de “uso justo”.

Contudo, o juiz determinou um julgamento separado para investigar acusações de que a Anthropic utilizou livros pirateados obtidos na internet em sua biblioteca, mesmo que não diretamente no treinamento. A ação inicial acusava a empresa de usar ilegalmente “centenas de milhares de obras protegidas”.

LEIA: Satélite da NASA inativo por décadas emite pulso que intriga astrônomos

Em sua análise, o juiz Alsup argumentou que os modelos de linguagem não reproduzem elementos criativos originais. “A queixa dos autores não é diferente do que seria se eles reclamassem que treinar crianças em idade escolar para escrever bem resultaria em uma explosão de obras concorrentes”, escreveu. Ele classificou o uso como distinto o suficiente para se enquadrar no uso justo.

A decisão foi categórica ao não absolver a empresa quanto ao suposto uso de cópias piratas, que terá um julgamento separado. “O fato de a Anthropic ter comprado posteriormente uma cópia de um livro que havia roubado da internet não a absolverá da responsabilidade pelo roubo, mas pode afetar a extensão dos danos estatutários”, destacou o juiz.

Outros processos judiciais

Recentemente, a empresa Reddit moveu um processo judicial contra a Anthropic por utilização de conteúdo da plataforma sem autorização para treinar o modelo de IA Generativa, Claude. No processo, o Reddit alega que a Anthropic tentou acessar dados do Reddit mais de 100 mil vezes por dia desde julho de 2023.

Apesar da decisão do juiz estabelecer um precedente para o treinamento com material legal, a decisão mantém sob julgamento a prática de incorporar dados obtidos ilegalmente. Outros casos semelhantes, como o do The New York Times contra a OpenAI e a Microsoft, continuam em curso e poderão definir limites legais mais amplos.

(Com informações de The Verge e CNBC)
(Foto: Reprodução/Freepik/GPXBISHALPIX)

Leia mais