Campanha #SaiDaMinhaCara articulou 50 parlamentares para apresentarem PLs para banir o uso dessa tecnologia na segurança
por Nicolau Soares, em Brasil de Fato
Na última terça-feira (21), 50 parlamentares de diferentes partidos apresentaram projetos de lei banindo o uso do reconhecimento facial em espaços públicos. A ação envolveu deputados estaduais e vereadores de 12 estados e do Distrito Federal e é fruto da campanha #SaiDaMinhaCara, articulada pelas organizações Coding Rights, MediaLab/UFRJ, Rede Lavits, o Instituto Brasileiro de Defesa do Consumidor (IDEC) e o Centro de Estudos de Segurança e Cidadania (CESeC).
Em São Paulo, o projeto de lei foi apresentado à Assembleia Legislativa em conjunto pelas deputadas Isa Penna (PCdoB), Leci Brandão (PCdoB) e Erika Malunguinho (PSOL) e tramita como PL 385/2022. O texto veda ao Poder Público “obter, adquirir, reter, vender, possuir, receber, solicitar, acessar, desenvolver, aprimorar ou utilizar tecnologias de reconhecimento facial ou informações derivadas de uma tecnologia de reconhecimento facial”, bem como contratar terceiros para esses serviços.
O uso do reconhecimento facial sem a devida preocupação com a garantia de direitos tem acontecido em diversos locais. Em 2021, a prefeitura do Recife anunciou que seriam instalados 108 relógios digitais pela cidade equipados com instrumentos de reconhecimento facial.
No Rio de Janeiro, em 2019, a Polícia Militar implementou projeto-piloto para videomonitoramento por reconhecimento facial. As câmeras foram instaladas inicialmente no bairro de Copacabana, mas depois se expandiram para o entorno do estádio do Maracanã e do aeroporto Santos Dumont, na região central da cidade. Mais tarde, o governo Cláudio Castro (PL) propôs a instalação da tecnologia na comunidade do Jacarezinho, palco da chacina mais letal de que se tem notícia em território fluminense, que resultou em 28 mortes.
Pablo Nunes, coordenador do Panóptico, projeto do CESeC que acompanha o uso de tecnologias de reconhecimento facial para o policiamento, destaca que todas essas experiências estão acontecendo sem nenhuma legislação regulatória.
“A gente não encontra uma base mínima para que esse tipo de tecnologia pudesse ser utilizada. Ou seja, protocolos operacionais, regulação, determinações claras de quem, quando e como será feito o acesso aos dados das pessoas, o ciclo de vida desses dados, quem vai ser responsável pelos erros ocorridos durante essa implementação. A gente não tem esse estudo básico”, afirma.
Os resultados da implantação do reconhecimento facial até aqui mostram um forte viés racial. Um estudo realizado pela Rede de Observatórios da Segurança em 2019, com os dados coletados em quatro estados brasileiros (Bahia, Rio de Janeiro, Santa Catarina e Paraíba), mostra que de 151 pessoas presas, 90% eram negras.
Em entrevista ao Brasil de Fato, Nunes expõe os principais problemas do uso desregulado dessa tecnologia, em especial no âmbito da segurança pública – atingindo principalmente a população negra. “A gente tem que entender que reconhecimento facial significa abordagem policial e encarceramento. A gente já sabe que boa parte das pessoas abordadas pela polícia, principalmente de forma violenta, são jovens negros. Aqui no Rio, 63% da população da cidade que é abordada pela polícia é negra e a gente sabe também que a violência é permeada nesses encontros entre jovens negros e polícia”, sustenta.
Outro aspecto importante é a ênfase no encarceramento. “O Brasil é um dos países que tem a maior população carcerária do mundo, e das que mais cresce. E a gente não tem assistido uma melhora da nossa segurança pública nesse aumento do encarceramento, muito pelo contrário. E estamos com o reconhecimento facial fazendo uma nova aposta no encarceramento como resolução dos problemas de segurança pública do país.”
Leia a íntegra da entrevista:
Brasil de Fato: Qual a linha central dos projetos de lei que estão sendo apresentados? Foi uma discussão coletiva das organizações?
Pablo Nunes: A campanha #SaidaMinhaCara é fruto de uma organização coletiva entre as o CESeC, que realiza o projeto Panóptico, Coding Rights, IDEC e Media Lab da UFRJ. Essas organizações se reuniram e construíram um modelo de projeto de lei de banimento do reconhecimento facial no âmbito estadual e municipal. A partir desse modelo, contatamos parlamentares no Brasil inteiro pra ver se havia interesse em protocolar esses pedidos e fizemos a campanha.
O reconhecimento facial tem sido usado em diversas instituições cotidianas, como bancos. Mesmo o governo federal tem incentivado as pessoas a registrarem seus rostos. Quais os riscos da adoção dessas tecnologias e por que é importante impedir seu avanço?
O foco dos projetos de lei que ajudamos a protocolar é um pouco mais específico, que é o uso das tecnologias em espaços públicos. Há dezenas, centenas de aplicações desses algoritmos e a gente focou neles sendo operados no espaço público, porque é nesse uso que a gente encontra o maior número de violações possíveis à privacidade, aos direitos humanos e a outras garantias legais.
Mas isso não exime do fato de que esses algoritmos podem sim produzir vieses que vão prejudicar o acesso a direitos. Se a gente pensa no Gov.br, que é uma plataforma pela qual a gente consegue acessar boa parte dos serviços operados pelo governo federal, se ele coloca esse sistema aliado ao reconhecimento facial, determinadas pessoas vão ter mais dificuldade de validar seu cadastro para acessar esses direitos. A gente viu esse processo acontecendo durante a pandemia de covid, principalmente a partir da criação do auxílio emergencial, que necessitava de validação por meio de reconhecimento facial. Isso acabou promovendo uma série de dificuldades para determinada parcela da população ter esses direito assegurados.
Outra aplicação que pode significar também uma dificuldade no acesso a direitos é no transporte público, uma vez que boa parte dos cartões de Bilhete Único, que tem diferentes nomes em outros estados, são aliados à identidade do dono do cartão e realizam reconhecimento facial em câmeras acopladas aos equipamentos de validação do cartão. E muitas vezes as pessoas têm dificuldades e acabam encontrando seus cartões de acesso ao transporte público bloqueados por uma possível fraude que o reconhecimento facial teria encontrado. Esse é um drama, que já foi muito bem documentado pela Coding Rights, que é experienciado por pessoas trans, que têm sua identidade muitas vezes questionada por esses sistemas. Isso acabam fazendo com que essas pessoas percam seus bilhetes únicos.
As pesquisas do Panóptico têm foco em questões ligadas à segurança pública. O que elas mostram em relação à forma como o reconhecimento facial tem sido aplicado no Brasil?
Tem sido aplicado de forma totalmente desregulada. Não há regulação específica para utilização do reconhecimento facial na segurança pública no Brasil. Inclusive, a Lei Geral de Proteção de Dados (LGPD) não abarca essa utilização, porque no artigo 4º a lei determina que a segurança pública e a defesa nacional não estão no escopo das determinações colocadas no texto. Então, temos um cenário de completa desregulação, aliado a um crescente aumento de projetos sendo desenvolvidos por polícias e guardas municipais por todo o território nacional.
É um cenário que é um complicador, porque a gente não encontra uma base mínima para que esse tipo de tecnologia pudesse ser utilizada. Ou seja, protocolos operacionais, regulação, determinações claras de quem, quando e como será feito o acesso aos dados das pessoas, o ciclo de vida desses dados, quem vai ser responsável pelos erros ocorridos durante essa implementação. A gente não tem esse estudo básico para ter o início desses projetos.
E, quando eles estão funcionando, a gente não tem um acompanhamento mínimo. As polícias que foram perguntadas durante nosso período de pesquisa responderam que não realizam contabilidade de quantas pessoas foram reconhecidas corretamente, quantas foram erroneamente, quantas pessoas foram abordadas, quantas faces foram capturadas, qual o tamanho desse banco de dados de faces capturadas, a gente não sabe. E é muito importante que esses dados básicos sejam coletados porque são eles que vão dizer o quanto que essa tecnologia é eficiente ou não para o uso no nosso dia a dia, no contexto nacional.
O que a gente encontrou aqui no Rio de Janeiro foi o relatório de utilização das câmeras em um dia, nos arredores do Maracanã, demonstrando que 63% das pessoas que foram detidas naquele dia foram detidas erroneamente, não eram pessoas que tinham mandados de prisão expedidos em seu nome. Então, o que a gente tem visto é exatamente uma falta de atenção e de regulação do uso dessas tecnologias. Sabemos que as tecnologias de reconhecimento facial produzem muito mais danos do que avanços, do que elementos positivos para garantia de direitos, para melhora na gestão das agências de segurança. Então, nossa posição é pelo banimento.
Como o racismo estrutural se conecta com essa questão? E em relação à identificação de pessoas trans, como isso se dá?
O racismo estrutural é totalmente conectado com essa questão em vários níveis, seja pelo desenho dos algoritmos, que leva em conta a estrutura de face branca como uma estrutura padrão e tudo aquilo que está fora desse padrão é tido como um ponto fora da curva. A gente também tem o racismo sendo um elemento central na operação e na escolha de locais onde essas câmeras vão ser instaladas. Então, no Rio de Janeiro, a gente tem em primeiro momento um cercamento de Copacabana para o acesso de determinadas pessoas por meio de reconhecimento facial – a gente sabe que Copacabana tem sido cercada há décadas em relação ao ingresso de jovens negros, principalmente vindo de periferias aqui do Rio. Ou também quando a gente vê câmeras sendo utilizadas em favelas para controle dessas populações.
E o que a gente tem visto além disso é como as polícias fazem a abordagem. A gente tem que entender que reconhecimento facial significa abordagem policial e encarceramento. A gente já sabe que boa parte das pessoas abordadas pela polícia, principalmente de forma violenta, são jovens negros. Aqui no Rio, 63% da população da cidade que é abordada pela polícia é negra e a gente sabe também que a violência é permeada nesses encontros entre jovens negros e polícia. E também no encarceramento, a polícia o Brasil é um dos países que tem a maior população carcerária do mundo, e das que mais cresce. E a gente não tem assistido uma melhora da nossa segurança pública nesse aumento do encarceramento, muito pelo contrário. Estamos com o reconhecimento facial fazendo uma nova aposta no encarceramento como resolução dos problemas de segurança pública do país.
Há um discurso sobre segurança que acaba apelando para o medo das pessoas. Isso pode levá-las a considerar esses problemas como algo menor?
A gente tem um cenário em que os nossos direitos são colocados em uma balança e a gente tem que decidir qual direito a gente quer perder para ganhar outro. Enquanto, na verdade, a gente deveria ter um Estado que proteja e promova todos os direitos que estão previstos em sua Carta Maga. E é importante frisar que não é a todos que é pedida uma certa flexibilização em relação aos seus direitos. É principalmente para a população negra, que tem nesses experimentos de segurança pública sofrido os maiores efeitos colaterais, que é exatamente essa população para quem é pedido que perca parte de seus direitos para um bem maior.
É uma tristeza a gente saber e ver que muitas vezes nós, enquanto sociedade como um todo, parlamentares, organizações da sociedade civil e outros, acabamos aceitando que esses vieses, esses efeitos colaterais do uso do reconhecimento facial e de outras políticas de segurança pública, atinjam a população negra e só coloque críticas e enfrente o avanço dessa máquina de violações quando as vítimas são pessoas brancas. É muito grave esse cenário, mas é o que a gente tem assistido no Brasil atualmente.
Edição: Thalita Pires
–
“O reconhecimento facial aumenta o encarceramento em massa e penaliza os mais pobres e negros”, afirma o especialista Pablo Nunes – Justin Sullivan/Getty Images North America/AFP