Modelos
generativos desafiam direitos autorais e acirram tensões com setores criativos,
ampliando o conflito sobre o uso de obras protegidas
O
avanço da IA generativa traz à tona um desafio: como permitir que máquinas
aprendam com a cultura escrita, visual e sonora existente sem desestabilizar os
mercados que a sustentam?
Esse
debate – centrado no uso de obras protegidas no treinamento de grandes modelos
de linguagem – ganhou seu mais recente episódio em setembro. Em ação coletiva
contra a Anthropic – desenvolvedora do chatbot Claude –, autores alegaram que esta
utilizou uma “biblioteca central” com milhões de livros pirateados para treinar
seus modelos. Para encerrar o litígio, a empresa aceitou pagar 1,5 bilhão de
dólares. O juiz do caso condenou a manutenção do acervo com cópias ilegais, mas
admitiu que o ato de treinar poderia se enquadrar na doutrina do “fair use” – que,
nos EUA, permite o uso não licenciado de obras quando este tem caráter transformativo.
Porém, o acordo impediu que a questão fosse julgada em instâncias superiores,
mantendo a insegurança jurídica. Enquanto isso, processos semelhantes se
multiplicam em diferentes setores.
No
jornalismo, o New York Times moveu ação contra a OpenAI – criadora do ChatGPT –
e sua parceira Microsoft, questionando tanto o uso de seu conteúdo jornalístico
para treinamento quanto as respostas que reproduziriam trechos extensos a ponto
de desviar leitores de seu site. Em linha semelhante, a Penske Media – dona das
revistas Rolling Stone, Billboard e Variety –, processou o Google, alegando o
recurso “AI Overviews” de se apropriar de conteúdo sem licença, retendo o
usuário na página de buscas e prejudicando o tráfego e a receita das
publicações.
A
controvérsia também se estende a outras mídias. No campo visual, a Stability
AI, responsável pelo gerador de imagens Stable Diffusion, foi processada pela
Getty Images. Estúdios como Disney e Universal acionaram judicialmente a
Midjourney, acusando-a de facilitar a criação de conteúdos que evocam franquias
e personagens famosos – sinal de que, quanto mais o resultado se aproxima de um
estilo proprietário ou de um personagem conhecido, maior o risco de conflito.
No
setor musical, editoras reclamam da exibição quase integral de letras por
chatbots. Universal Music, Concord e ABKCO processaram a Anthropic, afirmando
que o Claude gerava letras “idênticas ou quase idênticas” às de ao menos 500
canções – o que mostra que obras curtas são especialmente vulneráveis à
memorização e reprodução literal. No campo do software, o GitHub Copilot –
assistente de código da Microsoft – responde em juízo por supostamente usar
repositórios de código aberto em larga escala sem o devido licenciamento e por
sugerir trechos sem atribuição de autoria ou indicação de licença.
Para
entender essas disputas, vale distinguir a fase de treinamento da de saída. O
treinamento expõe o modelo a grandes volumes de dados para identificar padrões
estatísticos. A saída é o que é gerado para o usuário – seja texto, imagem ou
código. Cada uma dessas etapas aponta para problemas e soluções próprias. No
treinamento, a controvérsia recai, principalmente, sobre a origem dos dados.
Nas saídas, a preocupação é a reprodução literal ou quase literal – a
“regurgitação” – de trechos reconhecíveis que podem confundir o público ou substituir
o consumo da obra original.
Em
conjunto, os casos revelam um embate que, mais que jurídico, está relacionado aos
negócios. Plataformas de IA competem por atenção e receita com setores consolidados,
e cada um deles reage de acordo com o grau de receio de ser deslocado. Para
dimensionar essas reações, é preciso mapear os atores afetados e avaliar se a
aplicação mina o mercado atual ou potencial de seus titulares. Quanto maior a
possibilidade de substituição de receita, especialmente em setores com margens
já pressionadas, maior a fricção.
Para
reduzir esse atrito, treinamento e saída exigem abordagens específicas. No caso
das saídas, medidas eficazes incluem limitar o comprimento das respostas quando
o prompt sugerir a possibilidade de citação extensa e literal, implementar
detectores de quase-cópias que substituam trechos por resumos, e adotar
controles para impedir a geração de imagens no estilo de artistas específicos.
No
treinamento, recomenda-se realizar due diligences para verificar a origem dos
dados, evitando materiais piratas e mapeando claramente quem pode licenciar os
conteúdos, em quais territórios, prazos e condições. Isso pode ser
complementado pela adoção de uma espécie de “etiqueta nutricional” de dados,
informando fontes, respeito a opt-outs, fração de domínio público e uso de
acervos licenciados. Providências desse tipo tendem a aumentar a confiança de
potenciais clientes corporativos, para os quais a transparência pode ser tão
importante quanto a performance. Nesse cenário, a conformidade deixa de ser apenas
um custo e passa a ser um diferencial competitivo, sobretudo quando
concorrentes enfrentam as consequências legais de práticas descuidadas.
Nada
disso implica frear a inovação. Ao contrário, mitigar riscos legais e
reputacionais tende a acelerar a adoção da IA. As disputas em curso mostram que
a questão não é liberar ou proibir indiscriminadamente, mas escolher com
critério quais dados utilizar, sob quais salvaguardas, a que preço e com que
grau de transparência. O objetivo é alcançar um equilíbrio em que modelos de
alto desempenho convivam com mercados autorais saudáveis, preservando os
ecossistemas que os alimentam e repartindo ganhos de forma mais justa entre
plataformas e criadores.
Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, e é professor convidado da Fundação Dom Cabral e sócio da área empresarial de Elias, Matias Advogados.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE