Estudo aponta riscos de tecnologias de reconhecimento facial
Brasil tem aos 376 projetos ativos, capazes de vigiar 40% da população
Sorria! Seu rosto está sendo não só filmado, mas também classificado, comparado e identificado, principalmente por órgãos públicos de segurança. Na maioria das vezes sem seu conhecimento. É o que mostra pesquisa da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), instituição acadêmica vinculada à Universidade Candido Mendes, no Rio de Janeiro.
Divulgado nesta quarta-feira (7), o relatório Mapeando a Vigilância Biométrica aponta que, após sediar a Copa do Mundo, em 2014, o Brasil se tornou um vasto campo de vigilância digital onde as chamadas tecnologias de Reconhecimento Facial (TRFs) encontraram solo fértil para se espalhar. Graças, em parte, à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.
“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, sustentam os defensores públicos federais da DPU e membros do CESeC, referindo-se às sofisticadas e caras câmeras de reconhecimento facial, cada vez mais presentes na paisagem urbana.
Segundo os pesquisadores, em abril deste ano havia, no Brasil, ao menos 376 projetos de reconhecimento facial ativos. Juntos, esses empreendimentos têm o potencial de vigiar quase 83 milhões de pessoas, o equivalente a cerca de 40% da população brasileira. E já movimentaram ao menos R$ 160 milhões em investimentos públicos - valor calculado a partir das informações que 23 das 27 unidades federativas forneceram aos responsáveis pelo estudo - não responderam à pesquisa, feita entre julho e dezembro de 2024, o Amazonas, Maranhão, a Paraíba e Sergipe.
“A despeito de todo esse cenário, as soluções regulatórias estão atrasadas”, sustentam os pesquisadores da DPU e do CESeC, assegurando que o Brasil ainda não tem leis para disciplinar o uso dos sistemas de vigilância digital, em particular das câmeras de reconhecimento facial.
Além disso, para os especialistas, faltam mecanismos de controle externo, padrões técnico-operacionais uniformes e transparência na implementação dos sistemas. O que amplia as chances de ocorrerem erros graves, violações de privacidade, discriminação e mau uso de recursos públicos.
Erros: Em outro levantamento, o CESeC mapeou 24 casos ocorridos entre 2019 e abril de 2025, nos quais afirma ter identificado falhas dos sistemas de reconhecimento facial. O mais conhecido deles é o do personal trainer João Antônio Trindade Bastos, de 23 anos.
Em abril de 2024, policiais militares retiraram Bastos da arquibancada do Estádio Lourival Batista, em Aracaju (SE), durante a partida final do Campeonato Sergipano. Eles conduziram o rapaz até uma sala, onde o revistaram de forma ríspida. Só após checarem toda a documentação de Bastos, que teve que responder a várias perguntas para comprovar que era quem ele dizia ser, os PMs revelaram que o sistema de reconhecimento facial implantado no estádio o tinha confundido com um foragido.
Indignado, Bastos usou as redes sociais para fazer um desabafo contra a injustiça sofrida. A repercussão do caso levou o governo de Sergipe a suspender o uso da tecnologia pela PM - que, segundo notícias da época, já a tinha usado para deter mais de dez pessoas.
Bastos é negro. Como a maioria das pessoas identificadas pelos sistemas de vigilância e reconhecimento facial, no Brasil e em outros países - de acordo com o relatório da DPU e do CESeC, há indicadores de que 70% das forças policiais do mundo têm acesso a algum tipo de TRF e que 60% dos países têm reconhecimento facial em aeroportos. No Brasil, “mais da metade das abordagens policiais motivadas por reconhecimento facial resultaram em identificações equivocadas, evidenciando o risco de prisões indevidas”.
“As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando pesquisas internacionais segundo as quais, em alguns casos, as taxas de erros dos sistemas são “desproporcionalmente elevadas para determinados grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação com indivíduos brancos”. Essa constatação motivou o Parlamento Europeu a, em 2021, alertar que “[as] imprecisões técnicas dos sistemas de Inteligência Artificial [IA], concebidos para a identificação biométrica a distância de pessoas singulares, podem conduzir a resultados enviesados e ter efeitos discriminatórios.”
Legislação: Ao tratar dos “desafios institucionais e normativos”, os pesquisadores lembram que, em dezembro de 2024, o Senado aprovou o Projeto de Lei n.º 2338/2023, que busca regulamentar o uso de inteligência artificial, incluindo sistemas biométricos na segurança pública. Para se tornar lei, a proposta terá que ser aprovada pela Câmara dos Deputados que, no mês passado, criou uma comissão especial para debater o tema.
Além disso, para os pesquisadores da DPU e do CESeC, embora o PL proponha a proibição do uso de sistemas de identificação biométrica a distância e em tempo real em espaços públicos, o texto aprovado pelo Senado prevê tantas exceções que, na prática, funciona “como uma autorização ampla para a implementação” desses sistemas.
“As categorias de permissões [no texto aprovado] incluem investigações criminais, flagrante delito, busca por desaparecidos e recaptura de foragidos, situações que abrangem um espectro considerável de atividades da segurança pública. Considerando o histórico de abusos e a falta de mecanismos eficazes de controle, essa abertura para uso acaba mantendo a possibilidade de um estado de vigilância e de violação de direitos.”
Recomendações: Os pesquisadores concluem defendendo a urgência de um “debate público qualificado”, com a participação ativa da sociedade civil, membros da academia e representantes de órgãos públicos de controle e de organismos internacionais.
Eles também recomendam o que classificam como “medidas urgentes”, como a aprovação de uma lei nacional específica para regulamentar o uso da tecnologia; a padronização de protocolos que respeitem o devido processo legal e a realização de auditorias independentes e regulares.
Os especialistas também apontam a necessidade de que os órgãos públicos deem mais transparência aos contratos e às bases de dados utilizados, garantindo o acesso da população a informações claras sobre os sistemas de reconhecimento facial e capacitando os agentes públicos que lidam com o tema. E sugerem a obrigatoriedade de autorização judicial prévia para uso das informações obtidas com o uso das TRFs em investigações, bem como a limitação temporal para armazenamento de dados biométricos e o fortalecimento do controle sobre empresas privadas que operam esses sistemas.
“Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes. *Por Alex Rodrigues - Repórter da Agência Brasil
Nenhum comentário
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião da Rádio JC Guassussê!