O que ameaça as eleições de outubro. Por Antonio Martins

Inteligência artificial, deep fakes e redes de desinformação podem desfigurar o pleito. Regulamentação proposta pelo TSE é frouxa. Tecnologias que ajudariam a revolucionar a democracia estão prestes a devastar o espaço público

Em Outras Palavras

Em 4 de janeiro, a ministra Carmen Lúcia, encarregada pelo Tribunal Superios Eleitoral (TSE) de coordenar a definição de normas para as eleições municipais de outubro,  divulgou  sua primeira proposta. O documento era aguardado com expectativa. Será o primeiro pleito brasileiro realizado após a popularização da inteligência artificial (IA) generativa – a tecnologia presente no ChatGPT e capaz de produzir em massa textos, imagens áudios e vídeos manipulados – e de macrossegmentá-los, ou seja, de dirigir cada mensagem ao público mais suscetível a se iludir com seu conteúdo.

Os riscos eram conhecidos. Mais ou menos à mesma época, o ministro Alexandre de Moraes afirmava em discurso que “a falta de transparência na utilização da IA e dos algoritmos tornou os usuários suscetíveis à demagogia e à manipulação política”. E o presidente Lula escrevia, em artigo no Washington Post: “A erosão da democracia é exacerbada pelo fato de que as fontes de notícias da população e as interações sociais são mediadas por aplicativos concebidos para o lucro – não para a coexistência democrática”. Mesmo assim, a proposta da ministra “é claramente incapaz” de enfrentar os perigos mencionados por Moraes e Lula, avalia o antropólogo Rafael Evangelista, pesquisador do Labjor-Unicamp e conselheiro do Comitê Gestor da Internet (CGI) brasileira.

A minuta de Carmen Lúcia será debatida em audiência pública marcada para 25 de janeiro. Sua primeira – mas não única – insuficiência relaciona-se ao novos desenvolvimentos da própria inteligência artificial generativa. Em junho de 2023, num artigo provocador traduzido por Outras Palavras, os pesquisadores norte-americanos Lawrence Lessig e Archon Fung chamavam atenção para o desafio.

Os novos sistemas podem criar em massa narrativas falsas: “notícias”, memes, postagens para redes sociais. E não apenas textos: é possível emular imagens, vídeos ou vozes de pessoas reais – discursos falsos “pronunciados” por um político, por exemplo. São os chamados deep fakes. Ou então gerar sem limites, com base apenas em scripts, “noticiários” inteiros em vídeo, com múltiplos personagens robóticos (mas quase idênticos a “apresentadores” humanos), de qualquer etnia, gênero ou idade.

Lessig e Fung alertam para a microssegmentação. Esse imenso volume de conteúdos falsos não será oferecido em massa ao público. Por meio da captura ou compra de dados sobre os indivíduos, a inteligência artificial permite dividir um determinado eleitorado em milhares de pequenos grupos e oferecer, a cada um, uma “informação” sobre assuntos que o preocupam. A técnica é usada especialmente para estimular a rejeição e a abstenção. Imagine divulgar, entre as pessoas que cuidam de um parente acamado, um vídeo em que um candidato zomba dos pacientes nesta condição. Uma segmentação ainda mais precisa é capaz de individualizar as mensagens; de articulá-las em sequência, de modo a produzir “aprendizado por reforço” e até mesmo de interagir com cada eleitor, em diálogos via chat mantidos por máquinas que simulam ser humanos.

Os autores relacionam este fenômeno com a mercantilização das campanhas eleitorais. Em um futuro não distante, preveem, empresas de marketing político oferecerão a candidatos pacotes com múltiplas técnicas baseadas em inteligência artificial generativa. O poder das novas ferramentas pode ser avassalador, pois elas realizam o trabalho de persuasão de milhares de pessoas. As eleições, em que a capacidade de convencer e mobilizar já foi decisiva, podem se reduzir a disputas em que prevalecerá quem tem o melhor aparato de IA generativa – e, é claro, as condições para comprá-lo… E há um aspecto ainda mais grave: a microssegmentação destrói o espaço público. Ao isolar cada eleitor em sua preocupações particulares, ela elimina a própria ideia de debate coletivo, sem o qual não há democracia possível.

A proposta inicial da ministra Carmen Lúcia é extremamente tímida para enfrentar tal cenário, opina Rafael Evangelista. Ela estabelece uma única diretriz. As peças produzidas por inteligência artificial deverão conter alguma indicação de que foram geradas por meio desta tecnologia. Não se define que destaque terá o alerta – o que tende a torná-lo imperceptível para a maioria do público. Não se distinguem os vários graus de intervenção por IA – o que pode equiparar algo banal e inofensivo (retocar o contraste de uma imagem) à geração de um vídeo manipulador, por exemplo. Não se leva em conta os circuitos não oficiais (os grupos de Whatsapp, por exemplo), que estão se convertendo, com enorme rapidez, na arena central das disputas eleitorais.

É nesta última ausência que está o principal problema da minuta de Carmen Lúcia, pensa Evangelista. Porque, independentemente do uso de IA generativa, as condições particulares do Brasil já criaram um cenário em que a desinformação viceja e se multiplica. O esquema sustenta-se num tripé. De um lado, há redes sociais extremamente populares, como o Whatsapp (usado por 197 milhões de brasileiros, ou 89% da população, um índice quase sem paralelo no mundo). De outro, plataformas como o YouTube, que oferecem a possibilidade de monetizar facilmente conteúdos falsos – mesmo os de qualidade precária. E, por fim, uma sociedade com alto índice de pobreza e subocupação, onde há milhões de pessoas ávidas por novas fontes de renda, na forma de “bicos”.

A conjunção destes fatores cria um exército de possíveis produtores de “conteúdos”, onde as campanhas eleitorais podem recrutar facilmente seus soldados. Na edição deste mês de Piauí, o repórter Pedro Pannunzio relata um caso extremo: o da rede Kwai, mantida por uma corporação privada chinesa. Interessada em disputar espaço com suas concorrentes no Brasil, ela compra de “agências” especializadas conteúdo que sabe ser falso. A circulação deste material é artificialmente impulsionada pela própria Kwai. Entre as falsidades mais turbinadas estavam, em 2022, as de cunho claramente bolsonarista – em especial as que questionavam a lisura das eleições e das urnas eletrônicas. O público da plataforma concentra-se no Norte-Nordeste e entre as “classes” C e D.

O caso da Kwai é extremo, por envolver a busca ativa de conteúdo falso por uma empresa estreante, num mercado em disputa acirrada. Mas nas redes mais estabelecidas os algoritmos cumprem, sem alarde, idêntico papel. Programados para gerar receita, eles só promovem o que resulta em audiência imediata. São insensíveis a conceitos como veracidade, relevância dos conteúdos, ética jornalística, qualidade da informação ou estética dos textos. Esta lógica movimenta a vasta máquina de mentiras e manipulação. Nos grupos de Whatsapp de extrema direita, os coordenadores identificam o conteúdo a promover. Este material passa a “bombar” no YouTube ou outras plataformas, que o remuneram. A recompensa serve de estímulo a novos produtores de desinformação. Não é preciso muita habilidade. Basta, por exemplo, comentar, no viés adequado ao esquema, um trecho de telejornal. Evangelista imagina que um participante da engrenagem pode amealhar algo como R$ 2 mil por mês, ocupando quatro horas vagas por dia.

O antropólogo frisa: o problema vai muito além das campanhas eleitorais. Por isso, não seria razoável esperar da ministra Carmen Lúcia a solução mágica. A sociedade brasileira precisa se debruçar na regulação da internet. E a sociedade civil deve assumir protagonismo. De um Congresso dominado pelo fisiologismo do Centrão dificilmente sairá boa resposta.

A tarefa pode parecer árdua, dado e enorme controle que as Big Techs passaram a exercer, na última década, sobre a internet. Como desafiar o Google ou a Meta? Mas é algo relacionado ao próprio resgate da democracia – por isso, há muita margem para a imaginação política. Ao contrário do que hoje ocorre, as novas tecnologias poderiam propiciar formas de participação muito mais efetivas do que apenas depositar um voto em urna, de tempos em tempos. Imagine um orçamento participativo em que os cidadãos de um determinado território visualizassem, em grandes telas, os projetos de obras previstos para sua região – e decidissem sobre eles. Ou a possibilidade de acompanhar, pela internet, como cada deputado atuou ao longo de uma determinada jornada: os votos que deu, as articulações de que participou, as opiniões que manifestou nas comissões, os lobistas com que se reuniu… Ou a elaboração de leis apoiada por sistemas wiki, que incorporassem os conhecimentos de milhares de pessoas, sobre determinados temas.

Há hoje meios para tudo isso – e no entanto, nos debatemos com a ameaça de degradação completa da democracia, com base nas mesmas tecnologias que poderiam ajudar a reinventá-la. É cheia de possibilidades e perigos a vida, em tempos de crise civilizatória.

Imagem: Tomasz Wozniakowski/The Economist

Deixe um comentário

O comentário deve ter seu nome e sobrenome. O e-mail é necessário, mas não será publicado.

seis + 17 =