Eduardo Felipe Matias
Governar a inteligência artificial (IA), a fim de evitar riscos e potencializar seus efeitos positivos, é um dos maiores desafios de nosso tempo. Porém, essa não é uma tarefa simples.
A definição de IA, em si, é a primeira barreira a ser
vencida. Para conceber um regime regulatório, é preciso estabelecer seu objeto.
Não há, entretanto, conceito amplamente aceito de IA. É verdade que há outras
áreas cuja definição é igualmente vaga – como energia ou meio ambiente – que,
nem por isso, deixam de ser reguladas, sendo comum, inclusive, a existência de
ministérios ou secretarias para cuidar desses temas no nível doméstico.
Assim como nesses casos, qualquer regime que se venha a
adotar precisa levar em conta que a IA não consiste em uma única tecnologia,
mas em um conjunto de técnicas em campos distintos, como o do reconhecimento de
fala e o da visão computacional, com uma infinidade de aplicações em múltiplas
indústrias. Trata-se de uma tecnologia de propósito geral, o que significa que
técnicas como o processamento de linguagem natural e aplicações como os
sistemas de recomendação podem ser empregadas em diversos contextos e com
diferentes finalidades.
Um complicador adicional é que a mesma aplicação, ao ser
utilizada de formas distintas em diferentes setores, pode apresentar níveis de
risco totalmente diversos conforme o contexto – uma aplicação que não
representa ameaça no entretenimento pode ser perigosa quando empregada na
aviação.
Sua natureza de caráter geral leva a IA a despertar
preocupações igualmente amplas, abrangendo não apenas questões de segurança,
mas também de privacidade, discriminação, segurança nacional e, até mesmo,
risco existencial para a humanidade, como alegam alguns.
Por abranger múltiplos temas e setores, a IA frequentemente
não se encaixa nas atribuições de agências reguladoras específicas existentes e
tende a atravessar as competências de várias delas, dada sua capacidade de
afetar diferentes partes interessadas. Com isso, diversos órgãos podem
reivindicar jurisdição sobre uma mesma aplicação. Somado à diversidade de
riscos, que justificaria tratamentos distintos conforme o contexto, o controle
dessas tecnologias torna-se, no mínimo, delicado.
Outro ponto relevante é a opacidade dos sistemas de IA,
seja por seus componentes estarem sob proteção de propriedade intelectual, seja
por seu grau de complexidade, que leva até mesmo os especialistas na área a
reconhecerem que nem sempre conseguem entender como os algoritmos chegam a
certos resultados.
Some-se a isso o fato de que os sistemas de IA, ao se
basearem em modelos de aprendizado de máquina, tendem a evoluir de forma
autônoma e nem sempre da maneira imaginada por seus programadores, o que os torna
imprevisíveis. Essa característica diferencia essa área de outras, como a
farmacêutica, na qual as moléculas utilizadas em um composto tendem a produzir
sempre as mesmas reações verificadas nos testes que permitiram sua
comercialização por não causarem danos à saúde. Vai de encontro, ainda, a um
dos objetivos de qualquer regulação, que é identificar e tentar prevenir
riscos.
Há, ainda, uma desconexão entre a lentidão habitual da
criação de leis e regulamentos – dependentes de processos democráticos e
burocráticos de elaboração e aprovação, que podem levar anos – e a rapidez da
inovação tecnológica, ainda maior no caso da IA, hoje em evolução exponencial.
Esse conhecido “problema de ritmo” (pacing problem) faz com que a
regulação não consiga acompanhar a tecnologia que busca disciplinar, o que leva
à demora na implementação de regras que preencham lacunas a tempo de evitar
prejuízos, bem como à rápida desatualização de qualquer norma que venha a ser
promulgada, tornando-a obsoleta e ineficaz.
Para vencer obstáculos como esses, alguns propõem a criação
de uma agência focada exclusivamente nas questões provocadas pela IA – proposta
por si só complexa de desenhar, considerando a multiplicidade de temas
envolvidos e partes interessadas. Porém, esta também enfrentaria entraves.
Para formar seu corpo técnico, enfrentaria uma disputa intensa
por talentos com o setor privado, apto a oferecer salários muito mais altos. Para regular uma área, contudo,
é preciso compreendê-la. E há uma grande assimetria de informações entre o
poder público e as grandes empresas de tecnologia que investem pesadamente em
pesquisa e desenvolvimento de IA, o que as leva a concentrar recursos
computacionais sem igual e a atrair os melhores profissionais do mercado.
A fragilidade de uma agência desse tipo se agrava se
considerarmos que, caso ela consiga contratar essas pessoas, não seria incomum
que estas ou tenham vindo de corporações ou, em algum momento, deixem sua
função pública para trabalhar nelas. Esse fenômeno, conhecido como “porta
giratória”, costuma ser ainda mais notado em setores com alto grau de
especialização e poucos profissionais habilitados, como é o caso da IA.
Outro reflexo negativo dessa dinâmica é que muitos
funcionários de agências obtêm empregos lucrativos no setor privado logo após
deixar a administração pública. Não é de se estranhar que alguns deles, de olho
em seu futuro, evitem contrariar certas empresas e desagradar potenciais
empregadores.
Há, por fim, a possibilidade da chamada “captura da
agência” por empresas que, por meio de lobbies, presentes e patrocínios, podem
tornar os reguladores simpáticos à indústria que estão regulando.
Outras dificuldades de caráter geral poderiam ser
apontadas. Uma delas é o chamado “problema da discrição”. Projetos de IA podem
utilizar componentes que, isoladamente, parecem não representar nenhum risco, e
este só se manifesta quando são integrados. Ferramentas amplamente acessíveis e
consideradas inofensivas podem ser utilizadas para desenvolver sistemas
complexos, muitas vezes de forma online e por pequenas equipes de
programadores. Essa característica faz com que essas atividades passem
despercebidas por instituições reguladoras, normalmente estruturadas para
fiscalizar grandes indústrias.
Diretamente relacionado ao anterior, o “problema da
difusão” se refere à possibilidade de projetos de IA serem desenvolvidos por
atores espalhados ao redor do mundo, sem que tenham qualquer vínculo legal
formal entre si. Essa dispersão jurisdicional pode ser explorada para contornar
regulamentações, prejudicando o monitoramento e controle desses projetos.
Além disso, mesmo empresas legalmente constituídas e
identificáveis podem transferir suas atividades de desenvolvimento de IA para o
exterior caso as normas em seus países de origem se tornem excessivamente
intrusivas. Esse tipo de fuga pode ser incentivado caso alguns governos passem
a tentar atrair essas empresas ao oferecerem ambientes livres de regulação – o
que provocaria uma espécie de “race to the bottom” que levaria os países
a regularem a IA o mínimo possível.
A solução para evitar o problema da difusão e outros
similares seria a coordenação internacional da regulação da IA – área que, vale
lembrar, é internacional por natureza, tanto por ser dominada por atores
globais que operam em diversos países, quanto por seus impactos terem o
potencial de extrapolar as fronteiras nacionais. No entanto, ainda não existe
nada equivalente a um tratado global sobre o uso da IA – e, como se constatou
em outras situações, como no combate às mudanças climáticas, alinhar os interesses
das nações para estabelecer esse tipo de governança global não é algo simples.
Isso não significa que se deva desistir de regular a IA. Ao contrário, é preciso compreender os desafios que essa tarefa impõe, a fim de conceber mecanismos de governança flexíveis e eficazes. Algumas medidas – como a adoção de instrumentos como sandboxes regulatórios, revisões periódicas obrigatórias e sunset clauses, com prazos de caducidade que forcem a atualização das regras antes de se tornarem obsoletas – indicam um caminho prático, já em curso, para alinhar a governança da IA ao ritmo acelerado da inovação.
Eduardo Felipe Matias – Sócio responsável pela área empresarial do escritório brasileiro Elias, Matias Advogados, é duas vezes ganhador do Prêmio Jabuti pelos livros “A Humanidade e suas Fronteiras: do Estado soberano à sociedade global” e “A Humanidade contra as Cordas: a luta da sociedade global pela sustentabilidade”. Coordenador do livro “Marco Legal das Startups: Lei Complementar 182/2021 e o fomento ao empreendedorismo inovador no Brasil” e coautor do estudo “Sharing Good Practices on Innovation: understanding selected European startups ecosystems to foster innovative entrepreneurship in Brazil”, é líder do Comitê de Startups da Associação Brasileira das Empresas de Software (ABES). Colunista da revista Época Negócios e do Broadcast/Estadão. Doutor em Direito Internacional pela Universidade de São Paulo, onde também se graduou. Pós-doutorado pela IESE Business School, na Espanha, mestre em Direito Internacional pela Universidade de Paris II Panthéon-Assas e visiting scholar na Columbia University em Nova York e nas Universidades de Berkeley e Stanford, na California.
Artigo originalmente publicado pela Vida Judiciária em maio de 2025. Para acesso, clique no link.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE