Carregando...

Publicações

E,M TECH - PROJETO DE ILLINOIS EXPÕE DISPUTA SOBRE O ALCANCE DA RESPONSABILIDADE JURÍDICA DE LABORATÓRIOS DE IA

24 Abril 2026/ Notícias & Artigos/

O Senado de Illinois discute o SB 3444, apresentado em 4 de fevereiro de 2026, que cria o chamado Artificial Intelligence Safety Act. Pela redação introdutória do projeto, desenvolvedores de modelos de fronteira não seriam responsabilizados por “danos críticos” causados pelos modelos se não tiverem agido de forma intencional ou temerária e se publicarem protocolos de segurança e relatórios de transparência em seus próprios sites. O texto também prevê que a conformidade pode ser demonstrada, entre outras hipóteses, pela adesão a requisitos de segurança adotados pela União Europeia ou por acordo com agência federal norte-americana.

O caso ganhou projeção mais ampla depois que a WIRED noticiou, em 14 de abril de 2026, a divergência entre OpenAI e Anthropic em torno do projeto. Segundo a reportagem, a OpenAI apoiou a proposta, enquanto a Anthropic passou a criticá-la por entender que ela reduziria em excesso a responsabilização das empresas em cenários de danos de grande escala. Ainda que a chance de aprovação seja incerta, o episódio é revelador porque mostra que a disputa regulatória já não se limita ao embate entre indústria e governo: ela também divide os próprios laboratórios de IA sobre o desenho de accountability aceitável.

Do ponto de vista jurídico, o ponto mais sensível do SB 3444 é a tentativa de estruturar uma espécie de porto seguro para desenvolvedores de modelos de fronteira. Em vez de adotar uma lógica ampla de dever objetivo de prevenção ou de ampliar hipóteses de responsabilidade, o projeto busca atrelar a exclusão de responsabilidade a deveres de documentação, transparência e protocolos ex ante. Isso desloca o debate do dano em si para a suficiência dos controles internos declarados pela própria empresa, o que naturalmente levanta dúvidas sobre incentivos regulatórios, auditabilidade e assimetria informacional.

Outro aspecto relevante é a definição de “dano crítico” (critical harm) e o tipo de modelo de fronteira coberto pela proposta. O texto trabalha com danos extremos, como mortes ou lesões graves em larga escala e prejuízos patrimoniais muito elevados, além de vincular o escopo da lei a modelos com patamar computacional ou custo de treinamento bastante alto. Em termos práticos, isso reforça que a discussão regulatória sobre IA nos Estados Unidos tende a ser segmentada: não se fala aqui em qualquer sistema automatizado, mas em modelos capazes de gerar riscos sistêmicos, com potencial de influência sobre infraestruturas, segurança ou danos de escala incomum.

A pauta é relevante também para o Brasil por duas razões. Primeiro, porque antecipa um debate que tende a aparecer também em outras jurisdições: se e em que medida frameworks privados de segurança e transparência podem funcionar como critério de mitigação ou exclusão de responsabilidade. Segundo, porque mostra como referências transnacionais, inclusive o AI Act europeu, já entram no vocabulário legislativo de propostas estaduais norte-americanas. Isso sugere que programas de governança, avaliação de risco, documentação técnica e trilhas de auditoria continuarão a ganhar peso não só como boas práticas, mas como elementos potencialmente centrais em litígios, seguros, compliance e desenho contratual.

Até 23 de abril de 2026, o status oficial do projeto indicava tramitação em comissão no Senado de Illinois, com prazo procedimental atualizado para 24 de abril. Independentemente do destino legislativo imediato, o episódio já funciona como sinal importante da próxima fronteira regulatória: a definição dos limites entre inovação, dever de cuidado e responsabilidade por danos em ecossistemas de IA cada vez mais autônomos e economicamente relevantes.

Fontes:  Full text General Assembly|  Anthoropic Opposes the Extreme



Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS