Carregando...

Publicações

Os desafios da regulação da inteligência artificial

01 Maio 2025/ Notícias & Artigos/

Eduardo Felipe Matias


Governar a inteligência artificial (IA), a fim de evitar riscos e potencializar seus efeitos positivos, é um dos maiores desafios de nosso tempo. Porém, essa não é uma tarefa simples.

A definição de IA, em si, é a primeira barreira a ser vencida. Para conceber um regime regulatório, é preciso estabelecer seu objeto. Não há, entretanto, conceito amplamente aceito de IA. É verdade que há outras áreas cuja definição é igualmente vaga – como energia ou meio ambiente – que, nem por isso, deixam de ser reguladas, sendo comum, inclusive, a existência de ministérios ou secretarias para cuidar desses temas no nível doméstico.

Assim como nesses casos, qualquer regime que se venha a adotar precisa levar em conta que a IA não consiste em uma única tecnologia, mas em um conjunto de técnicas em campos distintos, como o do reconhecimento de fala e o da visão computacional, com uma infinidade de aplicações em múltiplas indústrias. Trata-se de uma tecnologia de propósito geral, o que significa que técnicas como o processamento de linguagem natural e aplicações como os sistemas de recomendação podem ser empregadas em diversos contextos e com diferentes finalidades.

Um complicador adicional é que a mesma aplicação, ao ser utilizada de formas distintas em diferentes setores, pode apresentar níveis de risco totalmente diversos conforme o contexto – uma aplicação que não representa ameaça no entretenimento pode ser perigosa quando empregada na aviação.

Sua natureza de caráter geral leva a IA a despertar preocupações igualmente amplas, abrangendo não apenas questões de segurança, mas também de privacidade, discriminação, segurança nacional e, até mesmo, risco existencial para a humanidade, como alegam alguns.

Por abranger múltiplos temas e setores, a IA frequentemente não se encaixa nas atribuições de agências reguladoras específicas existentes e tende a atravessar as competências de várias delas, dada sua capacidade de afetar diferentes partes interessadas. Com isso, diversos órgãos podem reivindicar jurisdição sobre uma mesma aplicação. Somado à diversidade de riscos, que justificaria tratamentos distintos conforme o contexto, o controle dessas tecnologias torna-se, no mínimo, delicado.

Outro ponto relevante é a opacidade dos sistemas de IA, seja por seus componentes estarem sob proteção de propriedade intelectual, seja por seu grau de complexidade, que leva até mesmo os especialistas na área a reconhecerem que nem sempre conseguem entender como os algoritmos chegam a certos resultados.

Some-se a isso o fato de que os sistemas de IA, ao se basearem em modelos de aprendizado de máquina, tendem a evoluir de forma autônoma e nem sempre da maneira imaginada por seus programadores, o que os torna imprevisíveis. Essa característica diferencia essa área de outras, como a farmacêutica, na qual as moléculas utilizadas em um composto tendem a produzir sempre as mesmas reações verificadas nos testes que permitiram sua comercialização por não causarem danos à saúde. Vai de encontro, ainda, a um dos objetivos de qualquer regulação, que é identificar e tentar prevenir riscos.

Há, ainda, uma desconexão entre a lentidão habitual da criação de leis e regulamentos – dependentes de processos democráticos e burocráticos de elaboração e aprovação, que podem levar anos – e a rapidez da inovação tecnológica, ainda maior no caso da IA, hoje em evolução exponencial. Esse conhecido “problema de ritmo” (pacing problem) faz com que a regulação não consiga acompanhar a tecnologia que busca disciplinar, o que leva à demora na implementação de regras que preencham lacunas a tempo de evitar prejuízos, bem como à rápida desatualização de qualquer norma que venha a ser promulgada, tornando-a obsoleta e ineficaz.

Para vencer obstáculos como esses, alguns propõem a criação de uma agência focada exclusivamente nas questões provocadas pela IA – proposta por si só complexa de desenhar, considerando a multiplicidade de temas envolvidos e partes interessadas. Porém, esta também enfrentaria entraves.

Para formar seu corpo técnico, enfrentaria uma disputa intensa por talentos com o setor privado, apto a oferecer salários muito mais altos. Para regular uma área, contudo, é preciso compreendê-la. E há uma grande assimetria de informações entre o poder público e as grandes empresas de tecnologia que investem pesadamente em pesquisa e desenvolvimento de IA, o que as leva a concentrar recursos computacionais sem igual e a atrair os melhores profissionais do mercado.

A fragilidade de uma agência desse tipo se agrava se considerarmos que, caso ela consiga contratar essas pessoas, não seria incomum que estas ou tenham vindo de corporações ou, em algum momento, deixem sua função pública para trabalhar nelas. Esse fenômeno, conhecido como “porta giratória”, costuma ser ainda mais notado em setores com alto grau de especialização e poucos profissionais habilitados, como é o caso da IA.

Outro reflexo negativo dessa dinâmica é que muitos funcionários de agências obtêm empregos lucrativos no setor privado logo após deixar a administração pública. Não é de se estranhar que alguns deles, de olho em seu futuro, evitem contrariar certas empresas e desagradar potenciais empregadores.

Há, por fim, a possibilidade da chamada “captura da agência” por empresas que, por meio de lobbies, presentes e patrocínios, podem tornar os reguladores simpáticos à indústria que estão regulando.

Outras dificuldades de caráter geral poderiam ser apontadas. Uma delas é o chamado “problema da discrição”. Projetos de IA podem utilizar componentes que, isoladamente, parecem não representar nenhum risco, e este só se manifesta quando são integrados. Ferramentas amplamente acessíveis e consideradas inofensivas podem ser utilizadas para desenvolver sistemas complexos, muitas vezes de forma online e por pequenas equipes de programadores. Essa característica faz com que essas atividades passem despercebidas por instituições reguladoras, normalmente estruturadas para fiscalizar grandes indústrias.

Diretamente relacionado ao anterior, o “problema da difusão” se refere à possibilidade de projetos de IA serem desenvolvidos por atores espalhados ao redor do mundo, sem que tenham qualquer vínculo legal formal entre si. Essa dispersão jurisdicional pode ser explorada para contornar regulamentações, prejudicando o monitoramento e controle desses projetos.

Além disso, mesmo empresas legalmente constituídas e identificáveis podem transferir suas atividades de desenvolvimento de IA para o exterior caso as normas em seus países de origem se tornem excessivamente intrusivas. Esse tipo de fuga pode ser incentivado caso alguns governos passem a tentar atrair essas empresas ao oferecerem ambientes livres de regulação – o que provocaria uma espécie de “race to the bottom” que levaria os países a regularem a IA o mínimo possível.

A solução para evitar o problema da difusão e outros similares seria a coordenação internacional da regulação da IA – área que, vale lembrar, é internacional por natureza, tanto por ser dominada por atores globais que operam em diversos países, quanto por seus impactos terem o potencial de extrapolar as fronteiras nacionais. No entanto, ainda não existe nada equivalente a um tratado global sobre o uso da IA – e, como se constatou em outras situações, como no combate às mudanças climáticas, alinhar os interesses das nações para estabelecer esse tipo de governança global não é algo simples.

Isso não significa que se deva desistir de regular a IA. Ao contrário, é preciso compreender os desafios que essa tarefa impõe, a fim de conceber mecanismos de governança flexíveis e eficazes. Algumas medidas – como a adoção de instrumentos como sandboxes regulatórios, revisões periódicas obrigatórias e sunset clauses, com prazos de caducidade que forcem a atualização das regras antes de se tornarem obsoletas – indicam um caminho prático, já em curso, para alinhar a governança da IA ao ritmo acelerado da inovação.


Eduardo Felipe Matias – Sócio responsável pela área empresarial do escritório brasileiro Elias, Matias Advogados, é duas vezes ganhador do Prêmio Jabuti pelos livros “A Humanidade e suas Fronteiras: do Estado soberano à sociedade global” e “A Humanidade contra as Cordas: a luta da sociedade global pela sustentabilidade”. Coordenador do livro “Marco Legal das Startups: Lei Complementar 182/2021 e o fomento ao empreendedorismo inovador no Brasil” e coautor do estudo “Sharing Good Practices on Innovation: understanding selected European startups ecosystems to foster innovative entrepreneurship in Brazil”, é líder do Comitê de Startups da Associação Brasileira das Empresas de Software (ABES). Colunista da revista Época Negócios e do Broadcast/Estadão. Doutor em Direito Internacional pela Universidade de São Paulo, onde também se graduou. Pós-doutorado pela IESE Business School, na Espanha, mestre em Direito Internacional pela Universidade de Paris II Panthéon-Assas e visiting scholar na Columbia University em Nova York e nas Universidades de Berkeley e Stanford, na California. 


Artigo originalmente publicado pela Vida Judiciária em maio de 2025. Para acesso, clique no link.



Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS