Notícias do Brasil

'Meu rosto, minhas regras': por que cresce o apelo para banir tecnologias de reconhecimento facial?

A tecnologia de reconhecimento facial ganha espaço no Brasil e no mundo sob a justificativa da segurança. A ferramenta tem gerado protestos e debates sobre seu uso para o controle social. A Sputnik Brasil ouviu especialistas que discutem problemas como soberania de dados, as implicações no racismo e os limites legais envolvidos no tema.
Sputnik
O metrô de São Paulo pode ser visto como o centro nervoso da capital paulista, conectando áreas distantes de uma região metropolitana com 20 milhões de habitantes. Estima-se que nas linhas metroviárias da maior cidade do Brasil circulem diariamente quatro milhões de pessoas. Todas elas carregam dados valiosos, como gostos, opiniões e rostos a serem mapeados.
Não à toa, o Metrô de São Paulo resolveu que precisa de um sistema de reconhecimento facial. Em outubro de 2019, foi publicado o resultado da licitação LPI nº 10014557, que destinou mais de R$ 58,6 milhões ao Consórcio Engie Ineo Johnson, formado por empresas de França e Irlanda, para a implementação do Sistema de Monitoramento Eletrônico (SME) para as linhas Azul, Verde e Vermelha do metrô paulista — incluindo um sistema de reconhecimento facial por câmeras.
O Metrô defende que essa é uma forma de garantir mais segurança e facilitar a identificação de suspeitos de crimes e pessoas desaparecidas. Não é o que pensam organizações como Instituto Brasileiro de Defesa do Consumidor (Idec), Artigo 19, Intervozes, Coletivo de Advocacia em Direitos Humanos e as defensorias públicas de São Paulo e da União. Em conjunto, esse grupo pediu à Justiça a suspensão do uso de reconhecimento facial no metrô paulista.
Em março, a juíza Cynthia Thome, da 6ª Vara da Fazenda Pública de São Paulo, acatou o pedido dessas organizações e emitiu decisão impedindo o Metrô de usar o sistema de reconhecimento facial. Para a juíza, a iniciativa é "ilegal e desproporcional", além de ter potencial de atingir direitos fundamentais. A decisão foi mantida em segunda instância.
Obra de arte entre vagões em movimento na estação Sumaré, linha Verde do metrô, em São Paulo, 19 de setembro de 2018.
A advogada Eloísa Machado, professora da Fundação Getúlio Vargas (FGV) de São Paulo, foi uma das representantes das organizações na ação civil pública movida contra o Metrô. À Sputnik Brasil, ela critica a implementação massiva da tecnologia e afirma que o sistema que o metrô pretende implementar viola direitos constitucionais brasileiros.

"Não houve qualquer justificativa, por parte do Metrô de São Paulo, para fundamentar o uso massivo de reconhecimento facial em suas estações. Tampouco houve uma informação clara sobre a finalidade específica do tratamento de dados pessoais biométricos de todos os usuários do metrô, sua destinação, compartilhamento ou armazenamento em banco de dados", recorda Machado, citando a Lei Geral de Proteção de Dados (LGPD).

De inspiração europeia, a LGPD foi sancionada em 2018 e impõe diretrizes em relação ao tratamento de dados pessoais no Brasil por meio da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Segundo essa legislação, as informações biométricas, que são alvo do reconhecimento facial, são dados pessoais sensíveis, cujo tratamento depende de circunstâncias incluindo o consentimento.
A ação contra o Metrô cita ainda violações ao Código de Defesa do Consumidor, ao Código de Usuários de Serviços Públicos, ao Estatuto da Criança e do Adolescente e até à Constituição, detalha Rafaela Alcântara, assessora de Direitos Digitais da Artigo 19.

"As violações vão desde o direito à privacidade e à proteção de dados até o direito à igualdade e à não discriminação", afirma Alcântara à Sputnik Brasil, acrescentando que uma indenização de quase R$ 43 milhões foi solicitada na ação devido às violações de direitos dos usuários do metrô.

Alcântara lembra que o tratamento dado às informações colhidas pelo Metrô de São Paulo não foi definido, deixando em dúvida o destino e o uso dos dados. Além da falta de governança e transparência, isso deixa margem para a exploração dos dados, mercadoria cada vez mais valiosa.

"Os dados são ativos econômicos valiosos na atualidade. Eles são o principal insumo de plataformas trilionárias como Google, Facebook, Amazon, entre outras", afirma à Sputnik Brasil Sergio Amadeu, pesquisador da área de tecnologia e dados e professor da Universidade Federal do ABC (UFABC), acrescentando que, após análise e tratamento, as informações extraídas podem ser usadas para o desenvolvimento de produtos e serviços.

Tecnologia tem problemas, mas avança no país

A coleta massiva de dados pelo uso do reconhecimento facial é uma questão sensível. Um estudo da Universidade Federal de Campina Grande (UFCG) analisou cinco detectores de faces, em um conjunto de 550 mil quadros de vídeo de 365 indivíduos, e reconheceu problemas na detecção de rostos de pessoas do gênero feminino e indivíduos com idades entre 46 e 85 anos. Em quatro dos cinco detectores observados, houve maior risco de falhas com pessoas de pele escura. No caso do Brasil, país de maioria negra, esse fator é um grave componente.
Não é difícil encontrar na mídia casos de falhas da tecnologia. No Piauí, o pedreiro José Domingos Leitão foi preso injustamente, em outubro de 2020, pela Polícia Civil do Distrito Federal após ser identificado de forma errônea pelo reconhecimento facial, relata o portal R7. No Rio de Janeiro, uma mulher inocente foi detida, em julho de 2019, após a mesma tecnologia identificá-la como uma acusada de homicídio e ocultação de cadáver, reporta o portal G1.
Mesmo assim o reconhecimento facial avança rápido no Brasil e já é usado em diversos estados para identificar suspeitos. Segundo mapeamento do projeto O Panóptico, do Centro de Estudos de Segurança e Cidadania (Cesec), pelo menos 13 estados brasileiros fazem uso ou testam o reconhecimento facial para fins de segurança pública. Já um levantamento do jornal Folha de S.Paulo com secretarias estaduais aponta que 20 estados usam ou estão implementando a ferramenta.
Sistema de reconhecimento facial é testado no aeroporto de Congonhas, em São Paulo, 15 de junho de 2021.
Segundo estudo do Instituto Igarapé, o uso da tecnologia cresce no Brasil ano a ano desde 2011. Um dos casos mais notórios no Brasil é o da Bahia, que desde 2018 prendeu centenas de suspeitos empregando o reconhecimento facial. Em julho de 2021, o governador baiano, Rui Costa (PT), anunciou o Projeto Vídeo Polícia, parceria para a ampliação do uso da tecnologia para 78 municípios e a implementação de milhares de câmeras de reconhecimento facial no estado. A parceria com as empresas Oi e Avantia custou R$ 665 milhões, mostra o Diário Oficial da Bahia.
No Rio de Janeiro, o governo estadual já aplicou o sistema em projeto piloto no qual prendeu 63 pessoas. As empresas envolvidas na implementação da tecnologia no estado incluem a operadora Oi, a britânica Staff of Technology Solutions e a chinesa Huawei. Segundo reportagem do portal G1, há planos para a expansão da tecnologia como parte do programa de segurança pública do governo do estado, Cidade Integrada, um dos carros-chefes do governador fluminense, Cláudio Castro (PL).
O uso de reconhecimento facial no estado é questionado na Assembleia Legislativa do Rio de Janeiro (Alerj) pela deputada Dani Monteiro (Psol), autora do Projeto de Lei Nº 5240/2021, que pede o banimento da tecnologia e cita que no período de uso da ferramenta no estado não houve queda no número de crimes.

Reconhecimento facial pode agravar racismo no Brasil

Para funcionar, o reconhecimento facial se vale de bancos de dados já existentes, como os mantidos pelas polícias ou pelo próprio Banco Nacional de Mandados de Prisão. Esse fator também traz riscos, uma vez que os próprios bancos de imagens policiais no Brasil podem não ser confiáveis.
Há diversos casos de pessoas negras inocentes presas com base em bancos de imagens racialmente enviesados. Recentemente, no Ceará, ganhou notoriedade um caso no qual uma foto do ator negro norte-americano Michael B. Jordan apareceu em uma lista de procurados por uma chacina que deixou cinco mortos no Natal de 2021. Conforme publicou o UOL, a imagem do astro de Hollywood consta nos registros da Polícia Civil do Ceará para o reconhecimento de suspeitos.
O ator norte-americano Michael B. Jordan participa de coletiva de imprensa durante o Festival Internacional de Cinema de Toronto, no Canadá, em 7 de setembro de 2019.
Um relatório da Defensoria Pública do Rio de Janeiro (DPRJ) mostra que pelo menos 90 prisões injustas por reconhecimento fotográfico foram registradas no país entre 2012 e 2020, sendo 73 apenas em território fluminense. A maior parte dos casos envolve pessoas negras.
Em seu site, a própria DPRJ destaca o caso de Tiago Vianna Gomes, um homem negro de Nilópolis (RJ) denunciado nove vezes por roubo devido à inclusão de uma foto sua no banco de imagens de suspeitos de uma delegacia local. Em nenhum dos casos Gomes foi considerado definitivamente culpado. Absolvido em sete processos, o homem aguarda a conclusão dos dois restantes.
Existe o temor de que a tecnologia de reconhecimento facial intensifique distorções como essas.

"Apesar da ampla adoção, das biometrias dominantes em uso — impressão digital, íris, palma da mão, voz e rosto —, o reconhecimento facial é o menos preciso, mais racista e o mais problemático em relação à privacidade de dados", avalia a cientista da computação Nina da Hora em entrevista à Sputnik Brasil.

A pesquisadora e hackerativista, que integra a Comissão de Transparência das Eleições do Tribunal Superior Eleitoral (TSE) para o pleito de 2022, alerta para o crescimento do número de governos usando essa tecnologia. Para ela é necessário "agir agora" para deter esse avanço.

"É preciso entender a preocupação que, a partir do uso e comparação de fotos, há por trás uma visão eugenista — de usar fenótipo para tomar decisões. No Brasil essa percepção já está muito enraizada na sociedade", aponta a cientista da computação.

O pesquisador Tarcízio Silva, autor do livro "Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais" vai na mesma direção e afirma que tecnologias de vigilância tendem a ter grande aceitação no Brasil devido ao racismo.

"Sistemas algorítmicos e tecnologias com qualquer tipo de automatização de processos são muito imprecisas, mas são implementadas a toque de caixa e aceitas socialmente pois as vítimas da violência estatal são sobretudo pessoas negras", afirma Silva à Sputnik Brasil.

O especialista ressalta que mesmo que a tecnologia fosse mais precisa, o avanço dela no Brasil fortaleceria problemas sociais ligados ao racismo, como o encarceramento em massa. Segundo ele, é dessa forma que age o chamado "racismo algorítmico", que atravessa técnicas, como a do reconhecimento facial, ao fortalecer relações sociais racialmente desiguais.

"É essencial entender muito além de minúcias de linhas de programação, mas como a promoção acrítica de implementação de tecnologias digitais para ordenação do mundo favorece a reprodução dos desenhos de poder e opressão que já estão em vigor", diz Tarcízio Silva ao explicar o conceito cunhado pelo autor Anupam Chander, da Universidade de Georgetown, nos EUA.

Silva salienta que mesmo em ambientes com índices muito menores de letalidade policial que os do Brasil, o uso do reconhecimento facial promove excessos. O pesquisador cita uma pesquisa realizada em Londres que mostrou que policiais desrespeitavam protocolos de abordagem após identificações feitas pela tecnologia.
Câmera de vigilância instalada no teto da estação de metrô Court Street, em Nova York, EUA, 7 de outubro de 2020.
Em Buenos Aires, onde o reconhecimento facial é usado desde 2019, há outro exemplo de excessos. Na capital argentina foram colhidos dados de mais de 7,5 milhões de pessoas de forma irregular — quase metade dos habitantes da região metropolitana. O sistema, porém, só estava autorizado a colher dados de pessoas procuradas, publicou o jornal argentino Pagina 12.
A coleta de dados foi ampla o suficiente para identificar até o presidente argentino, Alberto Fernández. O caso de coleta massiva só foi revelado depois de investigação judicial, concluída com a decisão de suspender o sistema.

Banimento do reconhecimento facial

Diante dos problemas complexos e de grandes proporções em torno da tecnologia de reconhecimento facial, cresce um movimento internacional pedindo o banimento do uso dessas ferramentas na segurança pública e no espaço público em geral.
É o caso da campanha Ban the Scan, promovida pela Anistia Internacional, e do manifesto Ban Biometric Surveillance, assinado por dezenas de organizações ao redor do mundo, incluindo 30 do Brasil.

"Acreditamos que a moratória, por ora, e, depois, o consequente banimento são as medidas mais adequadas diante de sistemas massivos de reconhecimento facial ou de outros dados biométricos. O vigilantismo promovido por essas tecnologias, quando usadas indiscriminadamente, é um inimigo de uma sociedade civil livre, criativa e pujante", aponta a advogada Eloísa Machado, professora da FGV.

A assessora de Direitos Digitais da Artigo 19, Rafaela Alcântara, destaca que a organização acredita que a tecnologia possa ser usada em exceções, mas que como regra deve ser proibida. No caso do uso para vigilância massiva em espaços públicos, a organização defende o banimento.

"Tal posicionamento vem da análise de que esse uso já se mostra, por princípio, incompatível com a proteção dos direitos humanos. De diversas maneiras a vigilância biométrica em massa afeta os direitos humanos", diz Alcântara.

Para o professor Sergio Amadeu, a moratória é a melhor medida para impedir os riscos de abusos com base no uso do reconhecimento facial e garantir mais controle social sobre a ferramenta.

"No momento, o reconhecimento facial tem servido à discriminação dos segmentos mais fragilizados da população, como os jovens negros da periferia. Acredito que precisamos de uma moratória do uso das tecnologias de reconhecimento facial. Precisamos discutir sua real aplicação, seus vieses, seus reveses e como mantê-las sob o controle democrático da sociedade", defende Amadeu.

Já o autor e pesquisador Tarcízio Silva reforça que o banimento dessa tecnologia é necessário não só por questões técnicas, mas principalmente pelo risco imposto a todos os cidadãos.

"Não se trata apenas de como a tecnologia erra com mais frequência com grupos minorizados, mas das próprias concepções de segurança pública envolvidas. Hipervigilância não só não diminui o crime, como promove a violência estatal e restringe a liberdade de todos e quaisquer cidadãos através de um clima de suspeição generalizada", afirma.

Na mesma linha, a cientista da computação Nina da Hora debate o que chama de "solucionismo tecnológico", que seria a esperança de resolver problemas sociais complexos, como a segurança, apenas com um passe de mágica da tecnologia.

"É a gente olhar para os problemas sociais e estruturais e achar que todos eles serão resolvidos com tecnologia. É como se estivéssemos negligenciando a nossa capacidade como seres humanos, seres pensantes que conseguem promover uma solução. É como se estivéssemos substituindo toda essa percepção humana por máquinas", conclui.

Até o fechamento desta reportagem, o Metrô de São Paulo não respondeu as perguntas enviadas.
Comentar