O Senado de Illinois discute o SB
3444, apresentado em 4 de fevereiro de 2026, que cria o chamado Artificial
Intelligence Safety Act. Pela redação introdutória do projeto, desenvolvedores
de modelos de fronteira não seriam responsabilizados por “danos críticos”
causados pelos modelos se não tiverem agido de forma intencional ou temerária e
se publicarem protocolos de segurança e relatórios de transparência em seus
próprios sites. O texto também prevê que a conformidade pode ser demonstrada,
entre outras hipóteses, pela adesão a requisitos de segurança adotados pela
União Europeia ou por acordo com agência federal norte-americana.
O caso ganhou projeção mais ampla
depois que a WIRED noticiou, em 14 de abril de 2026, a divergência entre OpenAI
e Anthropic em torno do projeto. Segundo a reportagem, a OpenAI apoiou a
proposta, enquanto a Anthropic passou a criticá-la por entender que ela
reduziria em excesso a responsabilização das empresas em cenários de danos de
grande escala. Ainda que a chance de aprovação seja incerta, o episódio é
revelador porque mostra que a disputa regulatória já não se limita ao embate
entre indústria e governo: ela também divide os próprios laboratórios de IA
sobre o desenho de accountability aceitável.
Do ponto de vista jurídico, o ponto
mais sensível do SB 3444 é a tentativa de estruturar uma espécie de porto
seguro para desenvolvedores de modelos de fronteira. Em vez de adotar uma
lógica ampla de dever objetivo de prevenção ou de ampliar hipóteses de
responsabilidade, o projeto busca atrelar a exclusão de responsabilidade a
deveres de documentação, transparência e protocolos ex ante. Isso desloca o
debate do dano em si para a suficiência dos controles internos declarados pela
própria empresa, o que naturalmente levanta dúvidas sobre incentivos
regulatórios, auditabilidade e assimetria informacional.
Outro aspecto relevante é a definição
de “dano crítico” (critical harm) e o tipo de modelo de fronteira coberto pela
proposta. O texto trabalha com danos extremos, como mortes ou lesões graves em
larga escala e prejuízos patrimoniais muito elevados, além de vincular o escopo
da lei a modelos com patamar computacional ou custo de treinamento bastante
alto. Em termos práticos, isso reforça que a discussão regulatória sobre IA nos
Estados Unidos tende a ser segmentada: não se fala aqui em qualquer sistema
automatizado, mas em modelos capazes de gerar riscos sistêmicos, com potencial
de influência sobre infraestruturas, segurança ou danos de escala incomum.
A pauta é relevante também para o
Brasil por duas razões. Primeiro, porque antecipa um debate que tende a
aparecer também em outras jurisdições: se e em que medida frameworks privados
de segurança e transparência podem funcionar como critério de mitigação ou
exclusão de responsabilidade. Segundo, porque mostra como referências
transnacionais, inclusive o AI Act europeu, já entram no vocabulário
legislativo de propostas estaduais norte-americanas. Isso sugere que programas
de governança, avaliação de risco, documentação técnica e trilhas de auditoria
continuarão a ganhar peso não só como boas práticas, mas como elementos
potencialmente centrais em litígios, seguros, compliance e desenho contratual.
Até 23 de abril de 2026, o status oficial do projeto indicava tramitação em comissão no Senado de Illinois, com prazo procedimental atualizado para 24 de abril. Independentemente do destino legislativo imediato, o episódio já funciona como sinal importante da próxima fronteira regulatória: a definição dos limites entre inovação, dever de cuidado e responsabilidade por danos em ecossistemas de IA cada vez mais autônomos e economicamente relevantes.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Comentários/ 0