Governar a inteligência
artificial (IA), a fim de evitar riscos e potencializar seus efeitos positivos,
é um dos maiores desafios de nosso tempo. Porém, essa não é uma tarefa simples.
A definição de IA, em si, é a
primeira barreira a ser vencida. Para conceber um regime regulatório, é preciso
estabelecer seu objeto. Não há, entretanto, conceito amplamente aceito de IA. É
verdade que há outras áreas cuja definição é igualmente vaga – como energia ou
meio ambiente – que, nem por isso, deixam de ser reguladas, sendo comum,
inclusive, a existência de ministérios ou secretarias para cuidar desses temas
no nível doméstico.
Assim como nesses casos, qualquer
regime que se venha a adotar precisa levar em conta que a IA não consiste em
uma única tecnologia, mas em um conjunto de técnicas em campos distintos, como
o do reconhecimento de fala e o da visão computacional, com uma infinidade de
aplicações em múltiplas indústrias. Trata-se de uma tecnologia de propósito
geral, o que significa que técnicas como o processamento de linguagem natural e
aplicações como os sistemas de recomendação podem ser empregadas em diversos
contextos e com diferentes finalidades.
Um complicador adicional é que a
mesma aplicação, ao ser utilizada de formas distintas em diferentes setores,
pode apresentar níveis de risco totalmente diversos conforme o contexto – uma
aplicação que não representa ameaça no entretenimento pode ser perigosa quando
empregada na aviação.
Sua natureza de caráter geral
leva a IA a despertar preocupações igualmente amplas, abrangendo não apenas
questões de segurança, mas também de privacidade, discriminação, segurança
nacional e, até mesmo, risco existencial para a humanidade, como alegam alguns.
Por abranger múltiplos temas e
setores, a IA frequentemente não se encaixa nas atribuições de agências
reguladoras específicas existentes e tende a atravessar as competências de
várias delas, dada sua capacidade de afetar diferentes partes interessadas. Com
isso, diversos órgãos podem reivindicar jurisdição sobre uma mesma aplicação.
Somado à diversidade de riscos, que justificaria tratamentos distintos conforme
o contexto, o controle dessas tecnologias torna-se, no mínimo, delicado.
Outro ponto relevante é a
opacidade dos sistemas de IA, seja por seus componentes estarem sob proteção de
propriedade intelectual, seja por seu grau de complexidade, que leva até mesmo
os especialistas na área a reconhecerem que nem sempre conseguem entender como os
algoritmos chegam a certos resultados.
Some-se a isso o fato de que os
sistemas de IA, ao se basearem em modelos de aprendizado de máquina, tendem a
evoluir de forma autônoma e nem sempre da maneira imaginada por seus
programadores, o que os torna imprevisíveis. Essa característica diferencia essa
área de outras, como a farmacêutica, na qual as moléculas utilizadas em um
composto tendem a produzir sempre as mesmas reações verificadas nos testes que
permitiram sua comercialização por não causarem danos à saúde. Vai de encontro,
ainda, a um dos objetivos de qualquer regulação, que é identificar e tentar
prevenir riscos.
Há, ainda, uma desconexão entre a
lentidão habitual da criação de leis e regulamentos – dependentes de processos
democráticos e burocráticos de elaboração e aprovação, que podem levar anos – e
a rapidez da inovação tecnológica, ainda maior no caso da IA, hoje em evolução
exponencial. Esse conhecido “problema de ritmo” (pacing problem) faz com que a
regulação não consiga acompanhar a tecnologia que busca disciplinar, o que leva
à demora na implementação de regras que preencham lacunas a tempo de evitar
prejuízos, bem como à rápida desatualização de qualquer norma que venha a ser
promulgada, tornando-a obsoleta e ineficaz.
Para vencer obstáculos como
esses, alguns propõem a criação de uma agência focada exclusivamente nas
questões provocadas pela IA – proposta por si só complexa de desenhar,
considerando a multiplicidade de temas envolvidos e partes interessadas. Porém,
esta também enfrentaria entraves.
Para formar seu corpo técnico,
enfrentaria uma disputa intensa por talentos com o setor privado, apto a
oferecer salários muito mais altos. Para regular uma área, contudo, é preciso
compreendê-la. E há uma grande assimetria de informações entre o poder público e
as grandes empresas de tecnologia que investem pesadamente em pesquisa e
desenvolvimento de IA, o que as leva a concentrar recursos computacionais sem
igual e a atrair os melhores profissionais do mercado.
A fragilidade de uma agência
desse tipo se agrava se considerarmos que, caso ela consiga contratar essas
pessoas, não seria incomum que estas ou tenham vindo de corporações ou, em
algum momento, deixem sua função pública para trabalhar nelas. Esse fenômeno,
conhecido como “porta giratória”, costuma ser ainda mais notado em setores com
alto grau de especialização e poucos profissionais habilitados, como é o caso
da IA.
Outro reflexo negativo dessa
dinâmica é que muitos funcionários de agências obtêm empregos lucrativos no
setor privado logo após deixar a administração pública. Não é de se estranhar
que alguns deles, de olho em seu futuro, evitem contrariar certas empresas e
desagradar potenciais empregadores.
Há, por fim, a possibilidade da
chamada “captura da agência” por empresas que, por meio de lobbies, presentes e
patrocínios, podem tornar os reguladores simpáticos à indústria que estão
regulando.
Outras dificuldades de caráter
geral poderiam ser apontadas. Uma delas é o chamado “problema da discrição”.
Projetos de IA podem utilizar componentes que, isoladamente, parecem não
representar nenhum risco, e este só se manifesta quando são integrados.
Ferramentas amplamente acessíveis e consideradas inofensivas podem ser
utilizadas para desenvolver sistemas complexos, muitas vezes de forma online e
por pequenas equipes de programadores. Essa característica faz com que essas
atividades passem despercebidas por instituições reguladoras, normalmente
estruturadas para fiscalizar grandes indústrias.
Diretamente relacionado ao
anterior, o “problema da difusão” se refere à possibilidade de projetos de IA
serem desenvolvidos por atores espalhados ao redor do mundo, sem que tenham
qualquer vínculo legal formal entre si. Essa dispersão jurisdicional pode ser
explorada para contornar regulamentações, prejudicando o monitoramento e
controle desses projetos.
Além disso, mesmo empresas
legalmente constituídas e identificáveis podem transferir suas atividades de
desenvolvimento de IA para o exterior caso as normas em seus países de origem
se tornem excessivamente intrusivas. Esse tipo de fuga pode ser incentivado
caso alguns governos passem a tentar atrair essas empresas ao oferecerem
ambientes livres de regulação – o que provocaria uma espécie de “race to the
bottom” que levaria os países a regularem a IA o mínimo possível.
A solução para evitar o problema
da difusão e outros similares seria a coordenação internacional da regulação da
IA – área que, vale lembrar, é internacional por natureza, tanto por ser
dominada por atores globais que operam em diversos países, quanto por seus impactos
terem o potencial de extrapolar as fronteiras nacionais. No entanto, ainda não
existe nada equivalente a um tratado global sobre o uso da IA – e, como se constatou
em outras situações, como no combate às mudanças climáticas, alinhar os interesses
das nações para estabelecer esse tipo de governança global não é algo simples.
Isso não significa que se deva
desistir de regular a IA. Ao contrário, é preciso compreender os desafios que
essa tarefa impõe, a fim de conceber mecanismos de governança flexíveis e
eficazes. Algumas medidas – como a adoção de instrumentos como sandboxes
regulatórios, revisões periódicas obrigatórias e sunset clauses, com prazos de
caducidade que forcem a atualização das regras antes de se tornarem obsoletas –
indicam um caminho prático, já em curso, para alinhar a governança da IA ao
ritmo acelerado da inovação.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE