A vigilância digital de crianças. Por Matheus Rojja Fernandes

Como proteger crianças e adolescentes no ambiente virtual sem transformá-los em objeto de vigilância permanente?

No Le Monde Diplomatique Brasil

O projeto de lei 3.287/2024 e os dilemas da segurança algorítmica na infância 

No Brasil contemporâneo, onde a digitalização da vida cotidiana se acelera sem precedentes, emerge uma questão que sintetiza os dilemas mais profundos de nossa época: como proteger crianças e adolescentes no ambiente virtual sem transformá-los em objeto de vigilância permanente? O Projeto de Lei 3.287/2024, que institui o “Protocolo de Atendimento e Intervenção Imediata para Prevenção e Proteção de Crianças e Adolescentes em Casos de Suspeita de Violência em Ambientes Virtuais”, materializa essas tensões. 

A proposta surge em resposta ao crescimento alarmante da exploração sexual infantil online – fenômeno que se intensificou durante a pandemia e continua expandindo-se. Segundo dados da SaferNet, as denúncias de pornografia infantil cresceram 19% no primeiro semestre de 2025 (28.344) em relação ao mesmo período de 2024 (23.799). Diante dessa realidade incontestável, o projeto propõe uma solução aparentemente técnica: algoritmos de “policiamento preditivo” capazes de antecipar situações de risco e permitir intervenção prévia. 

O fetiche tecnológico da segurança 

A sedução exercida pelas soluções tecnológicas para problemas sociais complexos não é nova, mas adquire contornos particulares quando aplicada à proteção das infâncias. O projeto encarna aquilo que podemos chamar de “fetiche tecnológico da segurança”: a crença de que algoritmos sofisticados podem resolver questões que têm raízes profundas na estrutura social, econômica e cultural da sociedade brasileira. 

O “policiamento preditivo” proposto pelo projeto promete identificar situações de violência antes que ocorram, utilizando técnicas estatísticas e análise de grandes volumes de dados. Essa abordagem, inspirada em modelos norte-americanos, ignora uma questão fundamental: os algoritmos não são neutros. Eles reproduzem e amplificam os preconceitos presentes nos dados utilizados para seu treinamento, podendo resultar em vigilância desproporcional de determinados grupos sociais. 

Nos Estados Unidos, sistemas similares já demonstraram viés racial e de classe, concentrando a vigilância em comunidades marginalizadas. No Brasil, país marcado por profundas desigualdades sociais e raciais, o risco de que algoritmos de “proteção” se transforme em instrumentos de discriminação é ainda maior. 

A infância sob suspeita 

Mais preocupante é o que o projeto revela sobre nossa concepção contemporânea das infâncias. Ao propor a vigilância algorítmica de crianças e adolescentes como solução primária, a lei materializa uma inversão perversa: em vez de suspeitar dos adultos que exploram crianças, passamos a suspeitar das próprias crianças e de suas interações digitais. 

Essa abordagem ignora o fato de que a maioria dos casos de violência sexual contra crianças ocorre no ambiente familiar ou em círculos de confiança, não no espaço digital. Segundo o Anuário Brasileiro de Segurança Pública de 2024, 76% dos casos de violência sexual contra vulneráveis são cometidos familiares, conhecidos ou pessoas próximas. A tecnologia, neste contexto, torna-se uma forma de desviar o foco do problema real. 

O projeto também falha ao tratar crianças e adolescentes de forma homogênea, ignorando as diferentes necessidades de autonomia e direitos de participação que caracterizam essas faixas etárias. Adolescentes, em particular, possuem direitos específicos à privacidade e liberdade de expressão que podem entrar em conflito com as medidas propostas. 

Direitos em tensão 

A questão central que o projeto suscita não é técnica, mas política: qual o limite aceitável da intervenção estatal na vida privada em nome da proteção? A experiência histórica brasileira com sistemas de vigilância deveria nos alertar para os riscos de normalizar o monitoramento como ferramenta de política pública. 

Embora o projeto inclua salvaguardas importantes – como a exigência de acurácia mínima de 95% nos sistemas e a previsão de revisão humana das decisões automatizadas –, essas medidas são insuficientes para resolver as tensões fundamentais entre segurança e liberdade. Mesmo com 95% de acurácia, os 5% de falsos positivos podem representar milhares de crianças e adolescentes incorretamente identificados como “em risco” ou “suspeitos”. 

Mais problemático ainda é que o projeto não estabelece mecanismos de participação de crianças e adolescentes em sua elaboração e implementação. Essa ausência viola o artigo 12 da Convenção sobre os Direitos da Criança, que garante o direito da criança de expressar suas opiniões sobre assuntos que lhe dizem respeito. Como podemos proteger direitos ignorando seus titulares? 

As raízes do problema 

A fixação na solução tecnológica obscurece as causas estruturais da violência contra crianças e adolescentes no Brasil. A exploração sexual infantil online não é um fenômeno isolado, mas expressão digital de desigualdades mais profundas: pobreza, exclusão social, fragilidade das redes de proteção social e familiar, e uma cultura que ainda tolera múltiplas formas de violência contra às infâncias. 

Dados do Fundo das Nações Unidas para a Infância (Unicef) mostram que 28,8 milhões de crianças e adolescentes vivem em situação de pobreza. Além de mais vulneráveis à exploração, serão provavelmente as mais afetadas por algoritmos de vigilância, perpetuando ciclos de marginalização. 

A proteção efetiva da infância no ambiente digital demanda investimentos em educação, fortalecimento das redes de proteção social, capacitação de famílias e comunidades, e políticas de redução da desigualdade. Algoritmos podem complementar essas estratégias, mas nunca as substituir. 

Alternativas possíveis 

Isso não significa rejeitar completamente o uso de tecnologia na proteção de crianças e adolescentes. O desafio é desenvolvê-la de forma democrática, participativa e centrada nos direitos humanos, sem comprometer a privacidade individual ou amplificar discriminações. 

O projeto poderia ser aperfeiçoado através de algumas mudanças fundamentais: estabelecer composição pluralista para o Comitê de Supervisão Tecnológica, incluindo especialistas em direitos da criança e representantes da sociedade civil; criar mecanismos de participação de crianças e adolescentes; definir critérios mais precisos para intervenção; estabelecer auditorias independentes periódicas com metodologia transparente; e integrar o protocolo com políticas mais amplas de educação digital e proteção social. 

O futuro da proteção digital 

O Projeto de Lei 3.287/2024 reflete uma encruzilhada: podemos caminhar rumo a uma sociedade de vigilância algorítmica que promete segurança em troca da liberdade, ou buscar alternativas que conciliem proteção efetiva com preservação de direitos fundamentais. 

A escolha que fizermos definirá não apenas como protegemos nossas crianças e adolescentes no ambiente digital, mas que tipo de sociedade construímos para elas. Uma sociedade verdadeiramente protetiva não é aquela que vigia constantemente, mas aquela que oferece condições dignas de vida, educação de qualidade e redes de apoio robustas. 

A proteção da infância no século XXI demanda muito mais que algoritmos sofisticados. Exige um projeto de sociedade que priorize genuinamente crianças e adolescentes – não apenas como objetos de proteção, mas como sujeitos de direitos. Enquanto não enfrentarmos essa questão central, continuaremos criando soluções tecnológicas para problemas que são, fundamentalmente, políticos e sociais. 

Matheus Rojja Fernandes é consultor em direitos humanos no Congresso Nacional, com atuação voltada aos direitos infantojuvenis e à justiça criminal. Pós-graduando em Direito Legislativo pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e membro do Instituto Brasileiro de Direito Parlamentar (PARLA).  

Deixe um comentário

O comentário deve ter seu nome e sobrenome. O e-mail é necessário, mas não será publicado.

quatro × quatro =