Como proteger crianças e adolescentes no ambiente virtual sem transformá-los em objeto de vigilância permanente?
No Le Monde Diplomatique Brasil
O projeto de lei 3.287/2024 e os dilemas da segurança algorítmica na infância
No Brasil contemporâneo, onde a digitalização da vida cotidiana se acelera sem precedentes, emerge uma questão que sintetiza os dilemas mais profundos de nossa época: como proteger crianças e adolescentes no ambiente virtual sem transformá-los em objeto de vigilância permanente? O Projeto de Lei 3.287/2024, que institui o “Protocolo de Atendimento e Intervenção Imediata para Prevenção e Proteção de Crianças e Adolescentes em Casos de Suspeita de Violência em Ambientes Virtuais”, materializa essas tensões.
A proposta surge em resposta ao crescimento alarmante da exploração sexual infantil online – fenômeno que se intensificou durante a pandemia e continua expandindo-se. Segundo dados da SaferNet, as denúncias de pornografia infantil cresceram 19% no primeiro semestre de 2025 (28.344) em relação ao mesmo período de 2024 (23.799). Diante dessa realidade incontestável, o projeto propõe uma solução aparentemente técnica: algoritmos de “policiamento preditivo” capazes de antecipar situações de risco e permitir intervenção prévia.
O fetiche tecnológico da segurança
A sedução exercida pelas soluções tecnológicas para problemas sociais complexos não é nova, mas adquire contornos particulares quando aplicada à proteção das infâncias. O projeto encarna aquilo que podemos chamar de “fetiche tecnológico da segurança”: a crença de que algoritmos sofisticados podem resolver questões que têm raízes profundas na estrutura social, econômica e cultural da sociedade brasileira.
O “policiamento preditivo” proposto pelo projeto promete identificar situações de violência antes que ocorram, utilizando técnicas estatísticas e análise de grandes volumes de dados. Essa abordagem, inspirada em modelos norte-americanos, ignora uma questão fundamental: os algoritmos não são neutros. Eles reproduzem e amplificam os preconceitos presentes nos dados utilizados para seu treinamento, podendo resultar em vigilância desproporcional de determinados grupos sociais.
Nos Estados Unidos, sistemas similares já demonstraram viés racial e de classe, concentrando a vigilância em comunidades marginalizadas. No Brasil, país marcado por profundas desigualdades sociais e raciais, o risco de que algoritmos de “proteção” se transforme em instrumentos de discriminação é ainda maior.
A infância sob suspeita
Mais preocupante é o que o projeto revela sobre nossa concepção contemporânea das infâncias. Ao propor a vigilância algorítmica de crianças e adolescentes como solução primária, a lei materializa uma inversão perversa: em vez de suspeitar dos adultos que exploram crianças, passamos a suspeitar das próprias crianças e de suas interações digitais.
Essa abordagem ignora o fato de que a maioria dos casos de violência sexual contra crianças ocorre no ambiente familiar ou em círculos de confiança, não no espaço digital. Segundo o Anuário Brasileiro de Segurança Pública de 2024, 76% dos casos de violência sexual contra vulneráveis são cometidos familiares, conhecidos ou pessoas próximas. A tecnologia, neste contexto, torna-se uma forma de desviar o foco do problema real.
O projeto também falha ao tratar crianças e adolescentes de forma homogênea, ignorando as diferentes necessidades de autonomia e direitos de participação que caracterizam essas faixas etárias. Adolescentes, em particular, possuem direitos específicos à privacidade e liberdade de expressão que podem entrar em conflito com as medidas propostas.
Direitos em tensão
A questão central que o projeto suscita não é técnica, mas política: qual o limite aceitável da intervenção estatal na vida privada em nome da proteção? A experiência histórica brasileira com sistemas de vigilância deveria nos alertar para os riscos de normalizar o monitoramento como ferramenta de política pública.
Embora o projeto inclua salvaguardas importantes – como a exigência de acurácia mínima de 95% nos sistemas e a previsão de revisão humana das decisões automatizadas –, essas medidas são insuficientes para resolver as tensões fundamentais entre segurança e liberdade. Mesmo com 95% de acurácia, os 5% de falsos positivos podem representar milhares de crianças e adolescentes incorretamente identificados como “em risco” ou “suspeitos”.
Mais problemático ainda é que o projeto não estabelece mecanismos de participação de crianças e adolescentes em sua elaboração e implementação. Essa ausência viola o artigo 12 da Convenção sobre os Direitos da Criança, que garante o direito da criança de expressar suas opiniões sobre assuntos que lhe dizem respeito. Como podemos proteger direitos ignorando seus titulares?
As raízes do problema
A fixação na solução tecnológica obscurece as causas estruturais da violência contra crianças e adolescentes no Brasil. A exploração sexual infantil online não é um fenômeno isolado, mas expressão digital de desigualdades mais profundas: pobreza, exclusão social, fragilidade das redes de proteção social e familiar, e uma cultura que ainda tolera múltiplas formas de violência contra às infâncias.
Dados do Fundo das Nações Unidas para a Infância (Unicef) mostram que 28,8 milhões de crianças e adolescentes vivem em situação de pobreza. Além de mais vulneráveis à exploração, serão provavelmente as mais afetadas por algoritmos de vigilância, perpetuando ciclos de marginalização.
A proteção efetiva da infância no ambiente digital demanda investimentos em educação, fortalecimento das redes de proteção social, capacitação de famílias e comunidades, e políticas de redução da desigualdade. Algoritmos podem complementar essas estratégias, mas nunca as substituir.
Alternativas possíveis
Isso não significa rejeitar completamente o uso de tecnologia na proteção de crianças e adolescentes. O desafio é desenvolvê-la de forma democrática, participativa e centrada nos direitos humanos, sem comprometer a privacidade individual ou amplificar discriminações.
O projeto poderia ser aperfeiçoado através de algumas mudanças fundamentais: estabelecer composição pluralista para o Comitê de Supervisão Tecnológica, incluindo especialistas em direitos da criança e representantes da sociedade civil; criar mecanismos de participação de crianças e adolescentes; definir critérios mais precisos para intervenção; estabelecer auditorias independentes periódicas com metodologia transparente; e integrar o protocolo com políticas mais amplas de educação digital e proteção social.
O futuro da proteção digital
O Projeto de Lei 3.287/2024 reflete uma encruzilhada: podemos caminhar rumo a uma sociedade de vigilância algorítmica que promete segurança em troca da liberdade, ou buscar alternativas que conciliem proteção efetiva com preservação de direitos fundamentais.
A escolha que fizermos definirá não apenas como protegemos nossas crianças e adolescentes no ambiente digital, mas que tipo de sociedade construímos para elas. Uma sociedade verdadeiramente protetiva não é aquela que vigia constantemente, mas aquela que oferece condições dignas de vida, educação de qualidade e redes de apoio robustas.
A proteção da infância no século XXI demanda muito mais que algoritmos sofisticados. Exige um projeto de sociedade que priorize genuinamente crianças e adolescentes – não apenas como objetos de proteção, mas como sujeitos de direitos. Enquanto não enfrentarmos essa questão central, continuaremos criando soluções tecnológicas para problemas que são, fundamentalmente, políticos e sociais.
Matheus Rojja Fernandes é consultor em direitos humanos no Congresso Nacional, com atuação voltada aos direitos infantojuvenis e à justiça criminal. Pós-graduando em Direito Legislativo pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e membro do Instituto Brasileiro de Direito Parlamentar (PARLA).
