Uma decisão judicial inusitada
nos Estados Unidos reacendeu o debate global sobre os limites e as
consequências do uso de tecnologias de reconhecimento facial.
Em março de 2025, a Clearview AI,
empresa norte-americana especializada nesse tipo de tecnologia, firmou um
acordo judicial com consumidores que alegaram uso indevido de suas imagens, em
violação à Lei de Privacidade de Informações Biométricas de Illinois. Dado que qualquer
norte-americano poderia se considerar atingido – praticamente todos têm fotos
disponíveis on-line – o número de possíveis afetados inviabilizou uma
indenização tradicional. A solução encontrada foi a transferência de 23% das
ações da Clearview, atualmente avaliada em cerca de 225 milhões de dólares, ao
grupo prejudicado. Caso ela seja vendida ou faça uma oferta pública inicial de
ações (IPO), os consumidores poderão receber mais de 50 milhões de dólares. Ao
transformar as vítimas em acionistas, a Justiça impôs à empresa a obrigação de
compartilhar ganhos futuros – quanto maior sua valorização, maior o valor a ser
pago por sua conduta passada.
A ação teve origem na acusação de
que a Clearview teria coletado bilhões de imagens faciais na internet a fim de alimentar
seu vasto banco de dados, sem conhecimento ou autorização prévia dos
envolvidos, levantando preocupações sobre violações de privacidade e ausência
de mecanismos de consentimento – vale lembrar que, no Brasil, a Lei Geral de
Proteção de Dados (LGPD) estabelece o consentimento como uma das bases legais
para o tratamento de dados pessoais, incluindo biométricos.
O caso da Clearview evidencia um
problema estrutural mais amplo. Apesar da ampla adoção de tecnologias de
reconhecimento facial, seu uso continua cercado de desafios técnicos e éticos
relevantes. Estudo conduzido anos atrás pelo National Institute of Standards
and Technology (NIST) dos Estados Unidos identificou taxas de erro
significativamente mais altas na identificação de rostos de pessoas negras e
asiáticas em comparação com os de brancos. Pesquisas realizadas por Joy
Buolamwini, do MIT, e Timnit Gebru, da Universidade Stanford, também apontaram
que algoritmos de reconhecimento facial demonstram alto grau de precisão para
identificar homens de pele clara, enquanto apresentam taxas de erro de até 33%
para mulheres de pele escura. Essas disparidades decorrem, em grande parte, de
conjuntos de dados de treinamento não representativos e da ausência de
mecanismos eficazes de correção de vieses.
As consequências desses
desequilíbrios vão além de números, gerando impactos concretos – e muitas vezes
graves, já que soluções como as oferecidas pela Clearview costumam ser utilizadas
por órgãos de segurança pública. Identificações equivocadas que resultam em
prisões injustas expõem os riscos do uso indiscriminado de tecnologias de
reconhecimento facial por autoridades policiais. Um exemplo marcante é o de
Robert Williams, homem negro de Detroit preso por engano em 2020 após ser reconhecido
por um software como autor de um crime. Williams ficou detido por 30 horas até
que se percebesse que a acusação se baseava apenas em uma imagem borrada e em
uma indicação algorítmica sem qualquer verificação humana.
Em resposta a preocupações como
essas, a União Europeia já iniciou a implementação de propostas regulatórias
mais abrangentes. Seu AI Act, aprovado em 2024, classifica o uso de
reconhecimento facial em espaços públicos como prática de alto risco, o que
exige controles rigorosos, avaliações de impacto e, em alguns casos, estabelece
proibições absolutas. As regras europeias tendem a ter efeitos
extraterritoriais, uma vez que empresas que pretendem operar naquele mercado
precisarão seguir essas normas globalmente ou manter versões distintas de seus
produtos – algo que, na prática, seria pouco viável.
De todo modo, regulamentar o
reconhecimento facial não deixa de ser um desafio complexo. De um lado,
defensores destacam sua utilidade na localização de pessoas desaparecidas, na
prevenção de crimes e na otimização de processos – como a redução de filas nos
aeroportos. De outro, críticos alertam que, sem fiscalização e regulação
eficazes, essas ferramentas podem acentuar desigualdades e comprometer o
direito à privacidade. A questão central é até que ponto estamos dispostos a
abrir mão de parte da nossa intimidade em troca de um suposto ganho em
segurança ou mais agilidade nos embarques aéreos.
O caso da Clearview evidencia a
necessidade de inovação jurídica diante da rápida evolução de certas
tecnologias e pode sinalizar uma nova abordagem em litígios semelhantes,
sobretudo em um cenário de crescente preocupação com a proteção de dados
pessoais e a responsabilidade das empresas. O modelo adotado, no qual os
consumidores se tornam acionistas, pode inaugurar uma tendência em disputas de
privacidade digital, especialmente quando startups de inteligência artificial
surgem em ambientes regulatórios ainda incipientes. Caso essa solução se
repita, investidores poderão repensar o apoio a empresas que exploram dados
sensíveis sem salvaguardas mínimas, evitando uma conta que poderia vir em forma
de diluição acionária.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE