Raiva e narcisismo alimentam poder das redes sociais, diz especialista alemão

Por Daniel Hopenhayn, especial para a BBC News Mundo

“O crescimento da digitalização sempre foi exponencial, mas a pandemia acelerou esse processo com esteroides”, afirma Martin Hilbert, pesquisador alemão da Universidade da Califórnia-Davis, nos Estados Unidos, e autor do primeiro estudo que calculou quanta informação existe no mundo.

Conhecido também por ter alertado sobre a coleta de dados da consultoria Cambridge Analytica durante a campanha eleitoral de Donald Trump um ano antes de estourar o escândalo, Hilbert tem acompanhado de perto os efeitos digitais do coronavírus.

E suas conclusões são pouco otimistas: ele diz acreditar que as pessoas não sabem como lidar com o poder dos algoritmos, que os governos não sabem usá-los a favor de seus povos e que as empresas resistem a adotá-los de modo ético.

Isso deveria preocupar especialmente a América Latina, “líder mundial no uso de redes sociais”, adverte Hilbert, que morou uma década no Chile como funcionário da Organização das Nações Unidas (ONU) e hoje vive a 40 minutos de distância do Vale do Silício, nos EUA.

Em entrevista à BBC News Mundo, serviço de notícias em espanhol da BBC, ele diz que os desafios atuais podem exigir uma evolução da consciência humana:

BBC News Mundo – Quais novidades a pandemia trouxe para nossa relação com as redes sociais?

Martin Hilbert – Houve dois efeitos simultâneos: nos tornou mais sensíveis às sequelas tóxicas da digitalização, mas acelerou nossa dependência dela.

E também confirmou que o segundo efeito é mais poderoso que o primeiro: ser consciente de que esse vício nos faz mal não tem produzido nenhuma mudança em nossa conduta.

BBC News Mundo – Por que o Sr. acha que isso acontece?

Hilbert – É preciso entender como funciona a economia digital, na qual o recurso escasso a ser explorado é a atenção humana.

O negócio dos gigantes da tecnologia — Google, Apple, Facebook, Amazon — não é lhe oferecer anúncios publicitários, é modificar seu comportamento para otimizar o lucro desses anúncios.

E conseguem isso porque os algoritmos, ao processar milhões de dados sobre seu comportamento, aprendem a prevê-lo, melhor do que você mesmo.

Mas, ao conhecê-lo e exercer influência sobre você, precisam mantê-lo conectado. Por isso, as chamadas tecnologias persuasivas cumprem sua missão quando você se vicia e não consegue desviar sua atenção delas.

BBC News Mundo – Pelo que mostra o documentário O Dilema das Redes (disponível na plataforma Netflix), muitos no Vale do Silício se arrependem de ter criado essas tecnologias.

Hilbert – Aqui no Vale do Silício a expressão da moda é human downgrading [degradação humana], que resume a seguinte ideia: de tanto discutir quando a tecnologia superaria nossas capacidades, perdemos de vista que as máquinas estavam focando em conhecer nossos pontos fracos.

Ganhar uma partida contra um campeão de xadrez é o de menos. Sua verdadeira fonte de poder tem sido nos levar a nosso narcisismo, nossa raiva, ansiedade, inveja, credulidade e, claro, a nossa luxúria.

Ou seja, as tecnologias persuasivas apelam para te manter na versão mais débil de você mesmo, para que perca seu tempo nas redes.

BBC News Mundo – Alguns críticos têm dito que o documentário é alarmista, que carece de perspectiva histórica para entender que esses fenômenos não são tão novos.

Hilbert – Como todo documentário, ele deixa de cobrir aspectos importantes, como o cruzamento entre a tecnologia e as desigualdades. Mas eu não vejo um alarmismo exagerado.

Quem critica esses discursos usa uma frase típica: “Essas coisas sempre existiram”. E é verdade. De fato, o Facebook fez um estudo para mostrar que a rede social influencia menos na polarização política do que nosso apego inato aos amigos com ideias semelhantes.

Mas o mesmo estudo mostrou que os algoritmos de recomendação do Facebook duplicam esse efeito, e aí está o problema. Os ovos e a carne sempre fizeram aumentar o colesterol, mas nas últimas décadas potencializamos esse efeito comendo uma avalanche de sorvete e batata frita. Entende?

O que acontece é que nos custa admitir esse efeito sobre nós mesmos. Nos preocupa muito ver nossos filhos grudados o dia inteiro em uma chupeta digital, incapazes de se concentrar ou assimilando expectativas pouco realistas sobre seus corpos. Mas nós somos outra coisa, usamos as redes por diversão, ninguém está colocando uma chupeta na nossa boca.

BBC News Mundo – Mas é um fato que a tecnologia digital também nos presta serviços imprescindíveis. A pandemia deixou isso claro.

Hilbert – Sem dúvida, e isso não tem volta.

O crescimento da digitalização sempre foi exponencial. Mas a pandemia acelerou isso com esteroides. Embora também tenha mostrado suas limitações, não?

Dou aulas online há dois anos e conheço bem as desvantagens, mas agora as professoras primárias descobriram que para crianças de 7 anos não serve para nada.

Também acelerou o debate sobre privacidade, que antes era mais teórico: o que a Siri escuta, o que a Alexa escuta?

Outro dia, um pai desavisado estava colocando as calças enquanto minha filha de seis anos assistia à aula e, é claro, havia umas 30 famílias vendo um velho seminu atrás. Ou, de repente, você escuta um casal brigando no quarto ao lado (da videoconferência). Mesmo sem querer, você se mete na casa do outro o tempo todo. (…)

BBC News Mundo – A pandemia também nos permitiu constatar que as notícias falsas se multiplicam quando há interesses políticos por trás.

Hilbert – Sim, e aqui o problema é a economia de atenção.

Ao algoritmo não importa para que lado as notícias falsas o levam, simplesmente servem para prender (sua atenção), porque elas se enquadram melhor do que a verdade em nossos vieses cognitivos. Em particular, em dois deles.

BBC News Mundo – Quais?

Hilbert – Um é o viés da confirmação: se uma informação reforça a sua opinião, sabe-se que é 90% menos provável que você a identifique como falsa. Mesmo que digam que é falsa, é 70% mais provável que um tempo depois você lembre dela como verdadeira.

O segundo é o viés de novidade.

Nós evoluímos para prestar uma atenção desproporcional ao que é novo. Quem não fez isso foi comido pelo tigre. E a verdade não soa nova, soa como algo que você já escutou antes.

Dessa forma, as notícias falsas obtêm 20 vezes mais retuítes do que as verdadeiras.

E a vantagem dos algoritmos é que essas condutas são previsíveis: somos irracionais, mas previsivelmente irracionais.

Então, se você fosse um algoritmo programado para atrair cliques, o que faria para se destacar na pandemia? Priorizar mensagens alarmantes que culpem minorias religiosas por propagar o vírus ou um exército estrangeiro de levá-lo a Wuhan.

Você se sairá muito bem nas chamadas “métricas neutras”, que supostamente privilegiam o que gostamos, mas na realidade maximizam os lucros às custas da polarização.

BBC News Mundo – E do nosso bem-estar emocional, segundo acreditam muitos psicólogos.

Hilbert – No ano passado, um estudo experimental concluiu que desativar o Facebook por um mês aumenta o seu bem-estar subjetivo tanto quanto ganhar US$ 30 mil a mais por ano.

A explosão das redes sociais coincidiu com o aumento da ansiedade, da percepção de solidão, de suicídio entre adolescentes, sobretudo entre meninas.

Precisamos entender que esses algoritmos não afetam todos igualmente: buscam os mais frágeis. Se uma menina de 14 anos procura no YouTube um vídeo sobre como comer melhor, o algoritmo logo vai recomendar a ela um vídeo sobre anorexia, porque a experiência diz a ele que isso vai captar a atenção dela. E se ela for frágil, seguirá esse caminho.

Os usuários de YouTube, que são 2 bilhões, veem em média 40 minutos de vídeos por dia, dos quais 70% são recomendados por algoritmos. Cerca de 5% das recomendações são teorias conspiratórias absurdas: de que a Terra é plana, de que vacinas são perigosas, etc.

Fazendo as contas, duas de cada sete pessoas no mundo veem em média 1,5 minutos diários de teorias da conspiração. É quase uma religião global. Não acho que tantos cristãos rezem todos os dias.

Se você vê esse tipo de vídeo, começa a duvidar de tudo. E se a verdade dos fatos já não conta, as regras tampouco. Por isso, criar essa confusão interessa tanto aos líderes populistas ou autoritários.

BBC News Mundo – Também circulam teorias absurdas sobre manipulação digital ou sobre supostas intenções ocultas de Mark Zuckerberg.

Hilbert – Claro, alguns acham que Zuckerberg estuda nossa personalidade para ir a um sótão escuro com o Coringa e o Darth Vader planejar a dominação do mundo. Mas não funciona assim. Sequer há muitos psicólogos no Vale do Silício.

As tecnologias persuasivas encontram nossas fraquezas por tentativa e erro, colocam duas versões de uma mensagem e veem qual dá mais clique.

Assim eles descobriram que as publicações que causam indignação obtêm o dobro de curtidas e quase o triplo de compartilhamentos.

Esse método cego, de fato, fez redescobrir estratégias que figuram há anos em manuais de design de cassinos, projetados para te viciar.

Outra emoção muito bem-sucedida é o medo, porque reagir ao medo da tribo também é um aprendizado evolutivo.

Quando um búfalo sente medo de outro membro da manada, sai correndo sem saber por quê.

E, em fevereiro (no início da pandemia), você não estocou papel higiênico por ter lido a respeito da cadeia produtiva, mas por temor coletivo.

BBC News Mundo – Para dizer algo a favor delas, algumas redes sociais filtraram muitas notícias falsas sobre a pandemia, em um esforço inédito…

Hilbert – Sim. A Amazon eliminou muitos produtos que mentiam sobre o vírus, e o Facebook colocou advertências em milhões de publicações que faziam o mesmo.

Ao ver essas advertências, as pessoas não clicaram na notícia 95% das vezes. Mas de que isso serve, se a maioria das pessoas apenas lê as manchetes? As pessoas não se dão ao trabalho de ler o conteúdo em 70% dos links que retuitam.

E os 5% que não foram dissuadidos pela advertência correspondem a cerca de 2 milhões de pessoas.

Avaaz, uma organização sem fins lucrativos, informou que 104 afirmações falsas sobre o vírus foram vistas mais de 117 milhões de vezes no Facebook durante março e que a empresa demorou até 22 dias para emitir as advertências.

E falamos do conteúdo em inglês — em outros idiomas o filtro é muito menor.

Isso deve preocupar os latino-americanos, porque são líderes mundiais no uso de redes sociais: em média 3,5 horas por dia.

BBC News Mundo – O Sr. defende que os Estados regulem com mais força o uso dessas tecnologias?

Hilbert – Com certeza. É verdade que as regulações eficientes costumam chegar quando uma indústria já alcançou certa escala, porque é difícil antecipar os riscos.

Quando surgiu o automóvel, um dos argumentos a seu favor era de que tornaria as cidades mais saudáveis, ao reduzir os excrementos de cavalo nas ruas.

Não podemos deixar as regras da sociedade nas mãos de alguns poucos engenheiros. Onde os dados devem ser armazenados? Que tipos de dados? Qual pode ser a sua finalidade? Temos que tirar essas perguntas nerds da garagem dos programadores, porque estamos quebrando vários acordos sociais com o poder desta economia desregulada.

BBC News Mundo – Em um artigo recente, o Sr. propõe que, assim como mudamos condutas para nos proteger do coronavírus, deveríamos adotar medidas de “desinfecção digital”.

Hilbert – Claro. As pessoas sabem que já é suficiente passar oito horas de trabalho diante de uma tela. Mas entra no quarto, respira e pega o celular mesmo assim, não consegue evitar.

E por mais que Apple e Google agreguem funções para ajudar você a monitorar seu consumo digital, as tecnologias seguem sendo projetadas para o vício.

Você diz: ‘Só vou checar uma notificação’. E 40 minutos depois (ao continuar conectado) fala: ‘Nossa, o que aconteceu?’. Aconteceu que o seu cérebro paleolítico não é páreo para a aprendizagem automática dos supercomputadores a respeito das suas vontades. (…)

Pode soar loucura, mas acho que estamos gerando uma nova pressão evolutiva sobre o Homo sapiens. Porque se queremos coexistir com máquinas que processam informação de modo muito melhor do que nós, teremos que produzir um salto de consciência. Ou seja, evoluir rumo a formas de consciência menos apegadas a processos de informação.

BBC News Mundo – Podemos induzir uma evolução desse tipo?

Hilbert – Não peça tanto a um acadêmico, mas vou contar algo que me surpreendeu muito.

Recentemente analisei, com dados do Facebook, o que as pessoas da América Latina fizeram com seu tempo livre durante a pandemia. E a única atividade que disparou em relação a épocas normais foi a meditação, tanto em interesse das pessoas quanto em download de aplicativos.

As mulheres, que sempre lideraram o uso desses aplicativos, duplicaram seu uso. E os homens triplicaram o seu, chegando ao nível que as mulheres tinham em 2019.

E o que buscamos com a meditação? Desconectarmos de nossos pensamentos.

E as tecnologias persuasivas funcionam como extensão de nossas mentes, desse diálogo interior que não conseguimos interromper.

É como quando você está irritado e argumenta na sua cabeça com uma outra pessoa e diz (internamente) a ela todo o mal que ela te fez. Essas tecnologias se conectam com esse diálogo interior, o externam por meio das redes sociais e aí te pegam.

Então, é interessante que a meditação tenha aumentado, que é um possível antídoto para isso. Cerca de 15% dos usuários do Facebook na América Latina demonstraram interesse pela prática.

BBC News Mundo – É contraditório que busquem o antídoto nas próprias redes sociais?

Hilbert – É que não se trata de apagar a internet. Isso não é uma opção se você quer ser parte da evolução desta sociedade.

No Vale do Silício, de fato, também há muito interesse na meditação. Estão fazendo testes com frequências sonoras, para encontrar aquelas cujos efeitos cerebrais ajudam a induzir ao desapego e a descansar dessa constante conexão.

(…) Se você olha para dentro de si, na sua cabeça não tem uma única opinião – tem um comitê discutindo. E quando a gente volta a intuir que precisa se desfazer dessas vozes, é porque descobre que são as mesmas vozes que estão no Facebook. Mas se desapegar delas não é tão fácil quanto baixar um app. (…)

BBC – O Sr. acha então que a saída não é tirar a tecnologia das pessoas, mas sim combater (os problemas) com mais tecnologia.

Hilbert – É assim porque a tecnologia é normativamente neutra: pode escalonar os problemas ou as soluções, conforme o uso que dermos para ela.

Agora, eu falo desse interesse na meditação como um sinal positivo, mas não como uma poção mágica.

Nós estamos apenas começando a descobrir os contornos da nossa mente digitalmente expandida. Mas estou convencido de que aprender a nos distanciarmos dessas tecnologias vai significar, no longo prazo, aprendermos a tomar distância de nós mesmos.

Um ególatra sem internet, nesse sentido, não seria parte da solução. (…)

BBC – E que medidas o Sr. recomenda?

Hilbert – Limpe sua mente com frequência, por pelo menos 20 segundos, principalmente depois de passar um tempo sem sentido nas redes sociais, durante o qual ficou exposto a algoritmos especializados em baixar sua guarda.

Fique quieto quando estiver a ponto de difundir um conteúdo de ódio ou que você sequer leu. E assuma a responsabilidade de ser um potencial vetor de contágio neste problema coletivo.

‘Não sabemos como lidar com o poder dos algoritmos’, afirma Martin Hilbert. Foto: arquivo pessoal

Deixe um comentário

O comentário deve ter seu nome e sobrenome. O e-mail é necessário, mas não será publicado.

6 + dezessete =