Por Murilo Roncolato, Tatiana Dias, no The Intercept Brasil
Escolha José Loreto no surubão de Noronha. Bolsonaro de óculos hipster. Ou Sergio Moro. O Salvador Dali da “Casa de Papel”. Uma inocente máscara de gatinho. Só não pule o carnaval do Rio de Janeiro de cara limpa.
Neste ano, a Polícia Militar carioca decidiu fazer um experimento com você: ela vai salvar o seu rosto e armazená-lo como parte de um banco de dados cujo destino e uso são um mistério. Tudo, claro, está sendo feito em nome de um objetivo nobre: a segurança pública. As câmeras de reconhecimento facial vão permitir, no futuro, a prisão de foragidos infiltrados em grandes aglomerações de pessoas, como o carnaval, por exemplo. Ótimo.
A novidade foi classificada como uma “ferramenta fantástica” pelo novo secretário da PM, coronel Rogério Figueredo de Lacerda, e será testada nos blocos de Copacabana. “É a modernidade, enfim, chegando.”
Mas há uma série de problemas com o sistema. O primeiro é que inocentes podem ser confundidos com criminosos. Tecnologias do tipo já foram testadas na Inglaterra – em 2017, por exemplo, na final da UEFA Champions League, o sistema de vigilância identificou 2.470 possíveis criminosos no meio da multidão. Destes, só 173 foram corretamente identificados. O índice de erro foi de 92%.
O segundo é que os dados serão administrados pela Oi – uma empresa privada que já foi multada pelo Ministério da Justiça por violar a privacidade ao monitorar a navegação de seus clientes. Além disso, ainda não está clara a maneira como essas informações serão utilizadas. Em outras palavras: você será gravado e analisado, e ninguém esclareceu ainda quem terá acesso a essas imagens, por quanto tempo elas ficarão guardadas e para quem elas serão fornecidas. E, por fim, esse tipo de sistema pode contribuir para discriminação e ser alvo de vazamentos. E não é difícil imaginar o desastre caso cenas de carnaval – que, você sabe, podem ser comprometedoras – caiam nas mãos erradas.
‘Em um bloco de carnaval, podemos identificar de forma imediata a presença de um criminoso’, promete a polícia.
Entusiasta, Lacerda explicou que a tecnologia foi adquirida da empresa de telefonia Oi por “custo zero” – guarde essa informação. Funciona assim: as câmeras captarão imagens das pessoas na rua e das placas dos carros; então, as imagens serão cruzadas com bases da Polícia Civil e da justiça, além do departamento de trânsito, para identificar criminosos à solta e veículos roubados. Os vídeos dos foliões serão enviados para uma central, onde eles serão processados e analisados de forma automática. “Em um bloco de carnaval, podemos identificar de forma imediata a presença de um criminoso”, diz o comunicado da PMERJ.
Para que o sistema funcione, será preciso escanear rosto por rosto e armazenar as imagens em um banco de dados. Todo mundo será submetido à vigilância. Mas nossos rostos – ou dados biométricos – são considerados dados sensíveis pela Lei Geral de Proteção de Dados, ou seja, podem colocar pessoas em risco se forem expostos indevidamente. Por isso, eles precisam de um tratamento especial, mais seguro, e só podem ser coletados com autorização das pessoas.
Não é o que vai acontecer no carnaval, é claro. Ninguém esclareceu ainda quem exatamente terá acesso às gravações, se elas poderão ser repassadas para outros sistemas além da polícia e por quanto tempo elas ficarão armazenadas. Pior: não é a PM que responde essas questões, essenciais para entender a segurança do sistema. É a Oi, empresa que generosamente “doou” ao governo estadual o sistema de vigilância.
Pedimos para a PMERJ – responsável, segundo ela própria, pela “gestão operacional do sistema” – informações sobre a tecnologia. Mas a instituição afirmou, por meio de sua assessoria, que quem fala sobre o assunto é a Oi. E a empresa se limitou a responder assim o nosso primeiro contato: “não comentamos o tema”.
O sistema permite busca por pessoas específicas e objetos suspeitos por tempo: quantas vezes você passou por ali?
Reprodução
De graça, mas nem tanto
Em Salvador, na Bahia, pelo menos 12 câmeras com o recurso de reconhecimento facial farão o monitoramento de todas as pessoas que passarem pelos acessos aos circuitos Barra, Pelourinho e Campo Grande durante o carnaval. Além de buscar foliões com mandados de busca, a tecnologia importada da China cruzará informações com banco de dados de pessoas desaparecidas na capital baiana. A ideia, segundo o secretário de segurança, Maurício Barbosa, é “oferecer tranquilidade aos foliões”.
No Rio de Janeiro, a tecnologia de vigilância foi uma promessa de campanha do governador do Rio, Wilson Witzel, e é a menina dos olhos da Oi. A empresa apresentou em outubro de 2018 na Futurecom, evento de tecnologia e telecom em São Paulo, sua “solução de smart cities [cidades inteligentes] voltada para vigilância”. Quem desenvolveu a tecnologia, chamada VCM (gerenciador de vídeo na nuvem, em tradução livre), foi a Huawei, responsável pelas câmeras instaladas em aeroportos e outros lugares de grande movimentação na China.
A Huawei diz que o diferencial de seu sistema é a precisão no reconhecimento de pessoas e objetos. As imagens são processadas por inteligência artificial, que pode ser programada para enviar alertas se captar algum movimento não-usual. Na cidade de Shenzen, base da Huawei na China, há cerca de 1,3 milhão de câmeras integradas ao sistema.
O sistema escaneia rosto por rosto e grava as informações como um “RG digital” de cada indivíduo, diz uma reportagem assinada por um jornalista que viajou à China a convite da empresa. Depois, esse RG digital é cruzado com outras bases de dados – no caso do Rio de Janeiro, com informações da justiça e da polícia, por exemplo. Mas poderia ser uma base de consumidores, de bancos ou mesmo de planos de saúde – saber por onde as pessoas andam e o que elas fazem é bastante útil para calcular o valor de planos de saúde ou a possibilidade de alguém ser caloteiro.
Segundo a Folha de S.Paulo, com o sistema é possível saber quantas vezes um automóvel ou uma pessoa visitou um local, com histórico de tempo indeterminado. Para se ter uma ideia da precisão, no ano passado, um repórter da BBC testou o sistema de vigilância chinês e demorou exatos sete minutos para ser localizado em meio à multidão.
A Oi está bem interessada na popularização desse tipo de monitoramento. Em Búzios, na Região dos Lagos fluminense, a empresa também “doou” dez câmeras de segurança em janeiro deste ano, cinco com reconhecimento facial e cinco com identificação de placas de veículos. Em Niterói, no mesmo mês, a empresa de telefonia anunciou sua parceria com a prefeitura para ampliar a rede de câmeras local.
A empresa vende o sistema como uma “plataforma de vídeo-monitoramento inteligente” capaz de “compartilhar informações com facilidade, inclusive entre instituições públicas e privadas”. Para a empresa, espalhar essa tecnologia é um negócio potencialmente lucrativo: câmeras inteligentes demandam uma boa conexão à internet, e a Oi é fornecedora de fibra ótica.
Reprodução
Quebra de privacidade em massa
A notícia foi vista com preocupação pelo Instituto de Defesa do Consumidor, o Idec. Para a entidade, “falhas e omissões na condução do projeto podem impactar de forma irreparável direitos dos cidadãos”. Assim, uma eventual exposição dos dados pessoais colhidos “pode levar à quebra de privacidade em massa”.
Para o Idec, o governo deveria avisar os cidadãos que eles estão sendo monitorados “para que tenham o direito de escolher se vão ou não para a área onde estão as câmeras”. A entidade de defesa do consumidor enviou uma carta à Secretaria da Polícia Militar do Rio de Janeiro com uma série de perguntas até agora não respondidas pelas autoridades, como os termos exatos do contrato com a Oi e as condições de segurança das imagens captadas.
Em São Paulo, vale lembrar, a ViaQuatro, concessionária da Linha 4-Amarela do metrô, foi alvo de uma ação civil pública do Idec contra câmeras instaladas para filmar e analisar as emoções dos passageiros. No sistema, anunciado com pompa como “Portas Digitais”, as pessoas eram gravadas e tinham suas emoções analisadas em tempo real para fins publicitários. A justiça ordenou que as câmeras fossem desligadasem setembro de 2018.
‘Se não há clareza, abrimos margem para mais insegurança do que a segurança.’
Como o objetivo das câmeras cariocas é outro – não vender publicidade, mas vigiar para tentar inibir a criminalidade –, as regras são diferentes. A Lei Geral de Proteção de Dados, aprovada no ano passado, não diz que regras são essas – elas deverão ter uma regulamentação específica, que ainda não existe. Nesse vácuo, o que vale são “os princípios gerais de proteção”: que deve haver um motivo claro para que essas informações sejam coletadas e que os responsáveis devem adotar medidas de transparência, não discriminatórias, de prevenção e segurança.
Ignorando esses princípios, o monitoramento feito pelo estado com o objetivo de supostamente dar segurança ao cidadão pode se tornar uma ferramenta de vigilância em massa e desrespeito à privacidade – e mediada não apenas pelo governo, mas também por uma empresa privada. “Se não há clareza, abrimos margem para mais insegurança do que a segurança que esse tipo de tecnologia promete”, diz Joana Varon, pesquisadora especialista em políticas digitais e fundadora da organização Coding Rights.
O monitoramento massivo pode levar ao roubo de dados – um vazamento de imagens, por exemplo – ou ainda a uma eventual produção de falsos positivos, ou seja, um cidadão pode ser confundido com um criminoso pelo software de reconhecimento facial e sofrer consequências por isso. Em 2018, por “confusões” similares, duas pessoas foram mortas por policiais no Rio de Janeiro.
Além disso, o sistema adotado no Rio é intermediado por algoritmos, que tomam decisões ao analisar e classificar as imagens. Isso envolve certos vieses e marginalização de estratos sociais. Nos EUA, por exemplo, algoritmos que determinam penas para condenados têm a tendência de aumentar a penalidade se o criminoso for negro.
“Qualquer falha, qualquer ajuste mal feito nesse sistema, gera consequências drásticas”, diz Danilo Doneda, professor de Direito Civil na Universidade Estadual do Rio de Janeiro e especialista em proteção de dados e privacidade. Por situações como essa, Doneda reforça a necessidade de clareza sobre como opera o sistema, sobretudo para permitir que as pessoas vítimas de uma acusação tomada com base em uma máquina tenham como recorrer. “Sem transparência, temos uma camada de obscuridade sobre decisões que podem afetar muito as pessoas.”