Sorriso! Seu rosto está sendo filmado, classificado, comparado e identificado, principalmente por agências de segurança pública, na maioria das vezes sem o seu conhecimento. Pesquisa da Defensoria Pública da União (DPU), em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), instituição acadêmica ligada à Universidade Candido Mendes, no Rio de Janeiro, mostra isso.
O relatório lançado, Mapeamento da Vigilância Biométrica, aponta que o Brasil se tornou um vasto campo de vigilância digital após sediar a Copa do Mundo de 2014, onde as chamadas Tecnologias de Reconhecimento Facial (TRFs) encontraram terreno fértil para se espalhar. Graças, em parte, à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.
“O reconhecimento facial tem sido amplamente incorporado por órgãos públicos no Brasil, em um processo que começou com a realização de megaeventos no país – especialmente a Copa do Mundo de Futebol de 2014 e os Jogos Olímpicos de 2016”, argumentam os defensores públicos federais da DPU e membros do CESeC, referindo-se às câmeras de reconhecimento facial sofisticadas e caras, cada vez mais presentes na paisagem urbana.
Segundo os pesquisadores, pelo menos 376 projetos ativos de reconhecimento facial no Brasil até abril deste ano. Juntos, esses projetos podem monitorar potencialmente quase 83 milhões de pessoas, equivalente a 40% da população brasileira. Eles já movimentaram pelo menos R$ 160 milhões em investimentos públicos, valor calculado com base nas informações fornecidas por 23 das 27 unidades federativas aos responsáveis pelo estudo. Os quatro estados que não responderam à pesquisa são Amazonas, Maranhão, Paraíba e Sergipe.
“Apesar desse cenário alarmante, as soluções regulatórias estão atrasadas”, argumentam os pesquisadores da DPU e do CESeC, enfatizando a necessidade premente de leis para regular o uso de sistemas de vigilância digital, particularmente as câmeras de reconhecimento facial, no Brasil.
Além disso, segundo os especialistas, a ausência de mecanismos de controle externo, padrões técnico-operacionais uniformes e transparência na implementação dos sistemas é motivo de preocupação. Essa falta de supervisão aumenta as chances de erros graves, violações de privacidade, discriminação e uso indevido de recursos públicos, destacando a necessidade de controles mais rigorosos.
Erros
Em outra pesquisa, o CESeC mapeou 24 casos entre 2019 e abril de 2025, alegando ter identificado falhas em sistemas de reconhecimento facial. Como no caso do personal trainer de 23 anos João Antônio Trindade Bastos, essas falhas podem levar a identificações equivocadas.
Em abril de 2024, a polícia militar retirou Bastos das arquibancadas do Estádio Lourival Batista, em Aracaju (SE), durante a final do Campeonato Sergipano. Levaram o jovem para uma sala, onde o revistaram de forma rude. Somente após verificar os documentos de Bastos, que teve que responder várias perguntas para provar que era quem dizia ser, os policiais revelaram que o sistema de reconhecimento facial implementado no estádio o havia confundido com um foragido.
Indignado, Bastos usou as redes sociais para desabafar sua revolta com a injustiça que sofreu. A repercussão do caso levou o governo de Sergipe a suspender o uso da tecnologia pela polícia, que, segundo reportagens da época, já havia usado o sistema para deter mais de dez pessoas.
Bastos é negro. Como a maioria das pessoas identificadas por sistemas de vigilância e reconhecimento facial no Brasil e em outros países, segundo o relatório da DPU e do CESeC, há indicadores de que 70% das forças policiais do mundo têm acesso a alguma TRF e que 60% dos países possuem reconhecimento facial em aeroportos. No Brasil, “mais da metade das abordagens policiais usando reconhecimento facial resultou em identificações equivocadas, destacando o risco de prisões injustas”.
“ As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando pesquisas internacionais que, em alguns casos, as taxas de erro dos sistemas são “desproporcionalmente altas para certos grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação com indivíduos brancos”. Essa constatação levou o Parlamento Europeu a alertar, em 2021, que “[a]s imprecisões técnicas de sistemas de Inteligência Artificial [IA] projetados para identificação biométrica remota de indivíduos podem levar a resultados enviesados e ter efeitos discriminatórios”.
Legislação
Ao tratar dos “desafios institucionais e regulatórios”, os pesquisadores apontam que, em dezembro de 2024, o Senado aprovou o Projeto de Lei nº 2338/2023, que busca regular o uso de inteligência artificial, incluindo sistemas biométricos em segurança pública. Para se tornar lei, a Câmara dos Deputados precisa aprovar a proposta, que criou no mês passado uma comissão especial para debater o tema.
Além disso, para os pesquisadores da DPU e do CESeC, embora o projeto proponha proibir o uso de sistemas de identificação biométrica remota e em tempo real em espaços públicos, o texto aprovado pelo Senado prevê tantas exceções que, na prática, funciona “como uma ampla autorização para a implementação” desses sistemas.
“As categorias de permissões [no texto aprovado] incluem investigações criminais, crimes flagrantes, buscas por pessoas desaparecidas e recaptura de foragidos, situações que abrangem um considerável espectro de atividades de segurança pública. Considerando o histórico de abusos e a falta de mecanismos de controle efetivos, essa abertura para o uso mantém a possibilidade de um estado de vigilância e violação de direitos”.
Recomendações
Os pesquisadores enfatizam a urgência de um “debate público qualificado”, com a participação ativa da sociedade civil, membros da academia e representantes de órgãos de controle público e organizações internacionais. Eles destacam que esse debate é crucial para moldar o futuro da tecnologia de reconhecimento facial no Brasil e exortam o público a participar ativamente.
Eles também recomendam o que classificam como “medidas urgentes”, como a aprovação de uma lei nacional específica para regular o uso da tecnologia; a padronização de protocolos que respeitem o devido processo legal; e a realização de auditorias independentes e regulares.
Os especialistas também apontam a necessidade de os órgãos públicos prestarem maior transparência aos contratos e bancos de dados utilizados, garantindo o acesso da população a informações claras sobre os sistemas de reconhecimento facial e a capacitação de agentes públicos que lidam com o tema. E sugerem que seja exigida autorização judicial prévia para o uso de informações obtidas por meio das TRFs em investigações, além de prazo para armazenamento de dados biométricos e fortalecimento do controle sobre empresas privadas que operam esses sistemas.
“Esperamos que essas constatações possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para órgãos reguladores e de controle estarem atentos ao que está acontecendo no Brasil. O relatório destaca o viés racial no uso da tecnologia, problemas de desvio de recursos públicos e falta de transparência em sua implementação”, diz o coordenador geral do CESeC, Pablo Nunes.
Fonte: Agência Brasil



