Estudo da DPU e CESeC revela falhas, riscos de discriminação e falta de controle sobre tecnologias de reconhecimento facial em expansão no país.
O Brasil vive um avanço acelerado da vigilância digital por meio de tecnologias de reconhecimento facial, muitas vezes sem conhecimento da população e sem a devida regulamentação. É o que aponta o relatório Mapeando a Vigilância Biométrica, divulgado nesta quarta-feira (7) pela Defensoria Pública da União (DPU) e pelo Centro de Estudos de Segurança e Cidadania (CESeC), vinculado à Universidade Candido Mendes (RJ).
Segundo o levantamento, o país já conta com 376 projetos ativos de reconhecimento facial, com capacidade para monitorar cerca de 83 milhões de brasileiros — o equivalente a 40% da população. A tecnologia, inicialmente adotada durante a Copa do Mundo de 2014 e os Jogos Olímpicos de 2016, tem sido amplamente incorporada por órgãos públicos, principalmente na área da segurança.
“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, afirmam os defensores públicos federais da DPU e membros do CESeC.
O estudo estima que, até o momento, R$ 160 milhões em recursos públicos já foram investidos nesses sistemas — valor baseado em dados fornecidos por 23 das 27 unidades federativas. Amazonas, Maranhão, Paraíba e Sergipe não responderam à pesquisa, realizada entre julho e dezembro de 2024.
Apesar da rápida implementação, os especialistas alertam para a ausência de uma legislação específica sobre o uso dessas tecnologias. “A despeito de todo esse cenário, as soluções regulatórias estão atrasadas”, apontam os autores do estudo.
Falhas e discriminação racial
Além da falta de regulação, o relatório destaca erros frequentes e riscos de discriminação racial no uso do reconhecimento facial. Em levantamento paralelo, o CESeC identificou 24 casos de falhas entre 2019 e abril de 2025. Um dos mais emblemáticos envolveu o personal trainer João Antônio Trindade Bastos, de 23 anos, confundido com um foragido enquanto assistia à final do Campeonato Sergipano, em abril de 2024, no Estádio Lourival Batista, em Aracaju (SE).
Retirado da arquibancada e revistado de forma ríspida por policiais militares, Bastos foi liberado apenas após comprovar sua identidade. O episódio gerou repercussão nas redes sociais e levou o governo de Sergipe a suspender o uso da tecnologia pela Polícia Militar, que já havia usado o sistema para prender mais de dez pessoas.
João Bastos é negro — como a maioria dos indivíduos afetados por erros em sistemas de reconhecimento facial no Brasil. De acordo com o relatório, mais da metade das abordagens motivadas por reconhecimento facial no país resultaram em identificações equivocadas.
“As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando estudos internacionais que apontam taxas de erro entre 10 e 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação com pessoas brancas. O Parlamento Europeu, em 2021, já havia advertido: “[as] imprecisões técnicas dos sistemas de Inteligência Artificial [IA], concebidos para a identificação biométrica a distância de pessoas singulares, podem conduzir a resultados enviesados e ter efeitos discriminatórios.”
Projeto de Lei e brechas
O relatório também analisa o cenário legislativo e os desafios normativos. Em dezembro de 2024, o Senado aprovou o Projeto de Lei 2338/2023, que propõe regulamentar o uso de inteligência artificial no país, incluindo os sistemas de reconhecimento facial. A proposta ainda precisa ser votada pela Câmara dos Deputados, que criou uma comissão especial para discutir o tema.
Embora o PL proponha a proibição do uso da identificação biométrica a distância e em tempo real em espaços públicos, o texto aprovado pelo Senado apresenta muitas exceções.
“As categorias de permissões [no texto aprovado] incluem investigações criminais, flagrante delito, busca por desaparecidos e recaptura de foragidos, situações que abrangem um espectro considerável de atividades da segurança pública. Considerando o histórico de abusos e a falta de mecanismos eficazes de controle, essa abertura para uso acaba mantendo a possibilidade de um estado de vigilância e de violação de direitos.”
Recomendações
Ao final do relatório, os especialistas reforçam a necessidade urgente de um debate público qualificado com a participação da sociedade civil, academia, órgãos de controle e organismos internacionais.
Entre as recomendações urgentes, estão:
• Aprovação de uma lei nacional específica para o uso das TRFs;
• Estabelecimento de protocolos padronizados e transparentes;
• Realização de auditorias independentes regulares;
• Capacitação de agentes públicos que lidam com os sistemas;
• Transparência nos contratos e bases de dados utilizados;
• Autorização judicial prévia para uso de informações em investigações;
• Limitação no tempo de armazenamento dos dados biométricos;
• Regulação das empresas privadas que operam os sistemas.
“Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes.
Com informações da Agência Brasil.