Matemático e filósofo reflete sobre a missão civilizatória das Ciências Humanas diante do desenvolvimento da Inteligência Artificial
Por: Patricia Fachin, em IHU
Ensinar a pensar criticamente. Esta é a contribuição fundamental que as universidades e, em especial, as disciplinas de Ciências Humanas podem dar à nova geração de estudantes que está se desenvolvendo em contato direto com a Inteligência Artificial (IA), argumenta Walter Carnielli, na entrevista a seguir concedida ao Instituto Humanitas Unisinos – IHU por chamada de vídeo. “Não é só a técnica; tem que ter o conhecimento aliado com a discussão filosófica profunda. Isso é imbatível porque isso a IA não consegue fazer, ou seja, ela não consegue dar direções éticas, morais e tomar decisões humanizadas. Decisões humanizadas não são decisões otimizadas”, reitera.
Carnielli leciona Matemática, Lógica e Filosofia da Ciência na Universidade Estadual de Campinas (Unicamp) e observa os efeitos do uso da IA não só no ambiente acadêmico, mas também nas disputas geopolíticas que empregam tecnologia cognitiva nas operações militares, com destaque para o conflito envolvendo Estados Unidos, Israel e Irã. O entrevistado também chama a atenção para a combinação entre o solucionismo tecnológico e a visão de futuro que tem sido propagada pelos CEOs das Big Techs em vários países do mundo.
“Sam Altman, CEO da OpenAI, disse que vê o futuro como a gente vendendo inteligência como uma ‘utility’, ou seja, uma utilidade, assim como vendemos energia elétrica e água. Veja, isso é uma apropriação completa de uma atitude humana. Daqui a pouco, vão dizer que também vão transformar a imaginação em utility. Você quer um pouco de imaginação? Você paga por ela. Você quer um pouco de inteligência para o seu sistema, seu produto, sua empresa? Você paga. Ou seja, está se criando uma utilidade que daqui a pouco não é mais sua”, exemplifica.
Na entrevista a seguir, o entrevistado comenta as implicações sociais do lançamento do Mythos, novo modelo de IA da Anthropic, as relações das Big Techs com a política e a necessidade de as universidades refletirem criticamente sobre o desenvolvimento tecnológico em curso. “As Humanidades se dividem entre duas coisas: um desprezo absoluto pela IA, dizendo que isso é bobagem e não querem se ocupar dela; e um deslumbramento, achando tudo lindo e maravilhoso. Não vejo ainda uma atitude racional de crítica do ponto de vista da metodologia científica nem aqui nem nos Estados Unidos, nem em lugar algum”, conclui.
Diariamente, o IHU publica notícias, artigos e entrevistas sobre os limites e potencialidades do desenvolvimento tecnológico e seus desdobramentos éticos, sociais, climáticos e geopolíticos globais. No Canal do IHU no YouTube estão disponíveis videoconferências com pesquisadores nacionais e internacionais que abordam a temática. Entre elas, destacam-se as do I Ciclo de Estudos – Inteligência Artificial, fronteiras tecnológicas e devires humanos, do II Ciclo de Estudos – Inteligência Artificial, fronteiras tecnológicas e devires humanos e do Ciclo de estudos: Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano.
No dia 19 deste mês, começará o Ciclo de Estudos Novas tecnologias. Gênero, poder e dis/utopias tecnopolíticas, que propõe uma reflexão crítica e interdisciplinar sobre a Filosofia da Tecnologia. A programação completa está disponível na página do evento.
Walter Carnielli é graduado, mestre e doutor em Matemática pela Universidade Estadual de Campinas (Unicamp), pós-doutor pela Universidade da Califórnia, pela Universidade de Münster (WWU) e pela Universidade de Bonn, como bolsista da Fundação Alexander von Humboldt. É editor e membro do corpo editorial de diversas revistas científicas, membro do Security and Quantum Information Group (SQIG, IST, Lisboa), da Deutsche Vereinigung für Mathematische Logik und für Grundlagenforschung der Exakten Wissenschaften (DVMLG) e de diversas sociedades científicas internacionais, como Polskie Towarzystwo Logiczne (Sociedade Polonesa de Lógica), Sociedade Brasileira de Lógica, Association for Symbolic Logic dos EUA, e ligado à Escola Superior de Economia- HSE de Moscou. Ganhador de diversas premiações, como o Prêmio Jabuti e a Medalha Telésio Galilei da Suiça, é classificado entre os mais importantes cientistas da América Latina em História, Filosofia e Teologia, de acordo com o Alper-Doger Scientific Index 2025. Presidiu a Sociedade Brasileira de Lógica por dois mandatos e fundou o grupo de trabalho de Lógica da Associação Nacional de Pós-graduação em Filosofia (ANPOF). É vice-presidente do AI2 – Advanced Institute of Artificial Intelligence.
Confira a entrevista.
IHU – O senhor tem experiência com disciplinas de Lógica, Filosofia, Matemática e Teoria da Computação em departamentos de Matemática e Filosofia. A partir desse trânsito em diferentes áreas do conhecimento, como avalia o modo como as universidades brasileiras estão se posicionando em relação à IA? Predomina um olhar cético, de senso crítico ou de deslumbramento?
Walter Carnielli – Desde 2023, quando ministrei uma palestra no IHU, a IA mudou muito. A IA é uma revolução que não tem volta. É muito parecida com o descobrimento da eletricidade ou da máquina a vapor – depois da descoberta, a humanidade não volta atrás. Nesse sentido, não adianta proibi-la ou dizer que é bobagem.
Deslumbramento, pragmatismo e crítica ingênua
Nesse contexto, as universidades estão centradas basicamente em três linhas completamente diferentes – e isso tem que acabar e ser unificado. Por um lado, há um deslumbramento a partir do desenvolvimento do Claude e do Gemini. Vejo isso principalmente nos departamentos de Artes, Música, Artes Visuais e Linguagem. Por outro lado, existe um uso pragmático. Isso é visto em alguns departamentos, como na Engenharia e na Matemática – a IA está penetrando muito no mundo matemático. As grandes demonstrações matemáticas só conseguem ser verificadas com grandes sistemas de computação que envolvem IA e outras coisas. A terceira linha faz uma crítica ingênua, dizendo que a IA é bobagem, enganação, um papagaio. No começo, a IA era mesmo um papagaio estocástico que repetia tudo. Era parecida com a busca do Google. Buscávamos alguma coisa, ela dava um monte de respostas e cada um avaliava o que era melhor. Hoje não é mais assim. Algumas empresas estão mudando de modelos de linguagem (Large Language Model – LLM) para agentes de linguagem (Large Language Agency). Isso é perigoso, por um lado, e interessante, por outro.
As universidades estão neste tripé de deslumbramento, pragmatismo e crítica ingênua sem saber exatamente o que é – porque ninguém está explicando exatamente o que é a IA. Ninguém está compreendendo exatamente o que está por trás disso.
Uma pergunta interessante é: todos os modelos de IA estão usando a mesma arquitetura, ou seja, o transformer, ou os algoritmos de atenção? Sim, estão. Basicamente, a arquitetura é a mesma, mas estão treinando a IA de maneiras diferentes.
As universidades precisam fazer uma crítica menos ingênua e mais profunda no sentido de entender o que está por trás da IA. Hoje, entende-se muito bem a energia atômica. Os físicos sabem o que está por trás dela, qual é seu risco e perigo, quando é ou não possível usá-la. Ela é boa e ruim ao mesmo tempo – não dá para escapar dessa dicotomia. Nesse sentido, as universidades têm que chegar a um patamar a que não chegaram ainda, nem no Brasil nem em lugar nenhum do mundo.
IHU – O que se pode esperar dessa mudança de modelos de linguagem para agentes de linguagem?
Walter Carnielli – Muita esperança e muito risco. Vou dar um exemplo recentíssimo, que é um ponto de tensão muito grande. A Anthropic, que faz o Claude, lançou o Mythos. Esse modelo de IA mostrou uma diferença muito interessante. Parece que ele trabalha com a mesma arquitetura de transformers, mas com um novo modelo. O Large Language Model foi substituído pelo Large Language Agency. Ou seja, trocaram modelos de linguagem por agentes de linguagem. Isso significa que em vez de o modelo de IA ser um polo passivo, que espera você perguntar algo, o Large Language Agency faz o contrário: começa a agenciar toda a informação que ele tem. Isto quer dizer que ele começa a “raciocinar”, entre algumas aspas, na medida em que consegue aquelas primeiras informações que lhe passamos.
Com isso, esta versão começou a ser capaz de detectar falhas em centenas de sistemas de algoritmos da própria IA. Isso é bom? É bom na mão de gente bem-intencionada. Por exemplo, se o sistema financeiro mundial tiver um bug e isso puder ser resolvido, é bom. Mas será muito ruim se esse modelo cair na mão de hackers que podem identificar uma falha no Banco Central do Brasil e promover um ataque cibernético.
A própria Anthropic não disponibilizou esse modelo para o público, muito corretamente. A empresa fez um experimento: deixou esse modelo dentro de um contêiner, onde ele não tinha informação por fora, e ele conseguiu gerar um código para sair para fora e criticar o próprio contêiner. É uma coisa diabólica. Até onde consegui ver, pela minha capacidade matemática, não estão usando nada de diferente dos transformers e algoritmos clássicos de IA. Só que eles foram treinados de outra maneira. É como se tivéssemos um cachorro: podemos treiná-lo para ser bonzinho ou para morder quem levanta a mão.
Fiquei abismado com esse uso agêntico e dinâmico da IA. Você joga a informação na IA e ela já vai processando, como uma espécie de crítico superinteligente. Tudo que você fala, ela relaciona, bem ou mal; não fica parada, dormindo.
IHU – Quais os riscos de aplicação desse modelo em contextos de guerra?
Walter Carnielli – Ele pode tomar decisões sozinho, buscar falhas no inimigo, falhas em si próprio. É perigosíssimo um modelo que expõe para qualquer um as falhas do sistema – ele pode expor a falha de segurança do seu banco para um bandido. A Anthropic fez bem em segurar o Mythos, mas o fato é que se esse modelo já existe, logo todo mundo vai copiar.
IHU – Alguns especialistas que acompanham a corrida tecnológica entre Estados Unidos e China dizem que não temos noção da dimensão que o desenvolvimento da IA irá tomar. O que está por trás da IA?
Walter Carnielli – Ninguém sabe. Acho que não tem nada de tão grande, maior do que já tem por aí. Na verdade, a IA é um pequeno milagre de matemática básica. O que se usa de matemática é basicamente probabilidade condicional, álgebra linear, cálculo integral e diferencial. Não tem nada de matemática complexa, como sistemas dinâmicos e teoria do caos, teoria quântica de campos, ou seja, coisas altamente qualificadas que algumas áreas da Física e da Matemática de alto nível estão usando. Não vejo grande sofisticação matemática na IA atual. O que vejo é um grande poder da matemática, o qual ainda não estamos entendendo até onde pode chegar.
A IA é matemática básica usada de maneira muito bem-organizada pelos algoritmos e pelas arquiteturas; é um quebra-cabeça muito bem pensado, onde não se entende onde se chega. Faço um paralelo com a criptografia, que é usada em tudo que é lugar – Bitcoin, Ethereum, banco, governo, setor militar, naves, drones. O que é a criptografia no fundo? É uma aplicação muito simples de uma matemática elementar com protocolos sofisticadíssimos, mas as pessoas não se dão conta disso. Então, vejo que falta um pouco de estudo mais profundo.
Corrida tecnológica
A IA não é uma revolução científica, mas é uma revolução tecnológica, como a escrita. O problema é que é a primeira vez que uma revolução tecnológica está na mão de poucas companhias: Amazon, Google, OpenAI, Microsoft, além das chinesas. A grande corrida é entre China e Estados Unidos. Agora, se eles têm algum segredo por trás, se estão preparando uma versão 2.0 que ninguém sabe, ou usando alguma matemática quântica por trás, não sabemos; não tem nenhuma evidência disso, mas pode ser.
O que é interessante é que nenhum outro país conseguiu fazer algo parecido: nem a Alemanha, nem a França, nem a Rússia, nem o Japão, nem o Brasil, nem a Coreia do Sul, nem Israel. Ou seja, nenhuma das grandes potências intelectuais conseguiu fazer um modelo de IA. Me parece estranhíssimo que a Alemanha não tenha conseguido fazer nada. A França tentou um pequeno ensaio num modelo chamado Mistral, mas não chegou longe. O Brasil está tentando fazer com outros modelos uma IA chamada SoberanIA. Mas todos eles estão repetindo o mesmo algoritmo e a mesma arquitetura existente. Ninguém tem uma arquitetura nova. Não tem nada de errado com isso. Depois que a eletricidade foi descoberta, as pessoas começaram a utilizá-la.
IHU – Quais são as dificuldades desses países em desenvolver um modelo de IA se se trata de matemática básica, como o senhor disse?
Walter Carnielli – O Brasil está começando a dominar o entendimento dessa matemática básica, dessa arquitetura, desses algoritmos e os está replicando. Esses algoritmos são públicos; uma vez que o algoritmo é publicado numa revista, pode-se usá-lo como quiser. O modelo da DeepSeek é open software.
Parece fácil, é só copiar. É como a escrita: ela é pública. Eu posso copiar a escrita e escrever o meu poema. O problema é que poema eu escrevo. Mas não é bem assim. O treinamento de um LLM de fronteira exige uma infraestrutura computacional massiva, composta por dezenas de milhares de Unidades de Processamento Gráfico (GPUs) de última geração, como as da Nvidia, operando em conjunto por meses. O custo disso são bilhões de dólares, não apenas na compra de GPUs, mas também no consumo de energia e manutenção. Essa infraestrutura está concentrada nas mãos das grandes empresas de tecnologia norte-americanas, as Big Techs, e seus serviços de nuvem (AWS, Google Cloud, Azure).
Além disso, os modelos devem ser treinados com volumes de dados gigantescos, que beiram a totalidade da internet acessível, além de vastas bibliotecas de livros e outros repositórios. Os dados estão disponíveis, mas a capacidade de coletar, limpar, filtrar e processar essa quantidade colossal de informação é um desafio logístico e computacional gigantesco, novamente, dominado por empresas que já operam em escala global de dados. Isso levanta a questão da “soberania digital”: a dependência de modelos de IA desenvolvidos e controlados por um pequeno número de empresas em um único país cria vulnerabilidades estratégicas e econômicas para todos os outros. A corrida pela IA, do ponto de vista lógico, não é apenas sobre ter o algoritmo, mas sobre controlar a infraestrutura que o torna possível.
IHU – Recentemente, o sociólogo francês Eric Sadin disse que a IA generativa, que cria conteúdos, é indefensável porque afeta nossas faculdades intelectuais e criativas. Concorda com a avaliação de que IA está afetando o nosso raciocínio, nossa forma de pensar, elaborar ideias, conectar assuntos, nossos processos criativos e de desenvolvimento, especialmente entre as novas gerações, que já nascem imersas nesse universo?
Walter Carnielli – Eric Sadin aborda esse ponto de que a IA pode estar atuando como uma terceirização das capacidades humanas. Um simples exemplo disso é que ninguém mais consegue ir de um lugar a outro sem usar o GPS. O GPS não diz onde ele está nos levando; ele manda ir por onde acha melhor. Muitos estão contentes com isso, mas eu gostaria de saber, se for para o Rio Grande do Sul, qual é a posição relativa no mapa entre São Leopoldo e Caxias do Sul. O problema não é só que não sabemos mais essa informação, mas que não existem mais mapas. Estou tentando comprar um mapa do estado de São Paulo e não acho. Eu acampo de vez em quando, por exemplo, e quero escolher o caminho que vou fazer, mas não há mais essa possibilidade.
Mas a crítica de Sadin é mais profunda: ele se refere ao “fim da deliberação”, ao fato de que já vivemos sob a égide do “solucionismo tecnológico”, a crença de que todo problema pode ser resolvido por um sistema técnico. A IA generativa eleva isso a um novo patamar, oferecendo respostas prontas e eliminando a necessidade de deliberação, de pensamento crítico, de debate e de confronto de interpretações. Isso tem implicações políticas e éticas profundas: um mundo governado por “verdades” geradas por máquinas é um mundo que dispensa o debate democrático e o juízo ético individual.
Impactos da IA na aprendizagem
Outro problema é que os estudantes não escrevem mais. Você não vê estudantes com cadernos. Vemos os alunos consultando sites ou tirando foto da lousa depois da aula. Mas copiar e escrever são atividades essenciais. Fazem parte do treinamento de memorização do cérebro. Memorizar faz parte do conhecimento – não estou falando em decoreba – mas quem não memoriza não sabe nada. Essa é a verdade. Acabei de voltar dos Estados Unidos. Lá, nenhuma criança e nenhum jovem abaixo de 15 anos conseguem ler escrita cursiva. Se enviar um bilhete com letra cursiva, eles não sabem ler o que está escrito. Só sabem ler se for em letra de forma. E não sabem ver a hora em relógios analógicos.
A IA está afetando a nossa memorização. Ninguém mais sabe o telefone de ninguém. Isso mostra como estamos dependentes da IA, das redes sociais, do WhatsApp. Se o seu telefone for roubado enquanto você está viajando, você entra em desespero porque não tem nenhuma informação que não esteja no seu telefone.
Capacidades humanas vendidas como utility
Agora, a situação é muito pior porque, como eu disse, esta é a primeira vez que uma grande tecnologia está na mão do grande capital. Esse grande capital quer o quê? Lucro, poder e influência. Não é mais o caso de Einstein, que estava trabalhando na teoria da relatividade pelo bem da ciência, e ninguém estava pensando em ganhar dinheiro com a teoria da relatividade. Hoje, estão só pensando nisso. Esse é um ponto importante.
Sam Altman, CEO da OpenAI, numa conferência em 2025 da BlackRock – grande empresa de consultoria para tomada de decisão em futurologia imediata –, disse que vê o futuro como a gente vendendo inteligência tal como uma “utility”, ou seja, uma utilidade, do mesmo modo que vendemos energia elétrica e água. Veja, isso é uma apropriação completa de uma atitude humana. Daqui a pouco, vão dizer que também vão transformar a imaginação em utility. Você quer um pouco de imaginação? Pague por ela. Você quer um pouco de inteligência para o seu sistema, seu produto, sua empresa? Pague. Ou seja, está sendo criada uma utilidade que daqui a pouco não é mais sua.
Crítica filosófica
E aí entra uma crítica de um filósofo que não é nada amado no mundo inteiro: Martin Heidegger. Ele flertou com o nazismo e muitos dizem que suas ideias são reflexo de uma atitude nazista da juventude. É considerado um filósofo ácido e perigoso para muita gente, mas nem por isso tudo que ele disse está errado. Ele tem uma proposta que chama de Gestell, que é a ideia de enquadramento.
O que é enquadrar? Um rio sempre foi um rio, um fluxo de água para você beber, se divertir. Depois da noção de enquadramento, o rio passa a ser visto apenas como uma fonte de energia. Ou seja, é uma fonte de água onde se pode criar uma usina hidrelétrica, pode servir para criar peixes e depois vendê-los, pode-se vender a água se for muito limpa e pura. A floresta não é um ecossistema; é um “fundo de reserva” de celulose e madeira. O solo não é a terra; é um “fundo de reserva” de minérios. Até o ser humano é enquadrado como “recursos humanos” – tudo fica calculável, disponível e armazenável.
Essa mesma ideia de Gestell está por trás do que vemos hoje no enquadramento da inteligência. Isso casa perfeitamente com a proposta de Sam Altman. Se ele disse o que disse é porque tem essas ideias correndo no fundo. Isso é altamente preocupante.
IHU – Como vê a relação dos CEOS das Big Techs com o mundo da política?
Walter Carnielli – Eles têm tanto dinheiro e tanta receita, que a soma de seis ou sete Big Techs é muito maior do que a de muitos países, como Hungria, Eslovênia, Holanda, Suécia, Irlanda, Áustria, Noruega, Dinamarca… Elas superam em receita o PIB de 180 dos 193 países-membros das Nações Unidas. Ou seja, as Big Techs poderão comprar uma ilha e fundar um país, até com grande poder bélico e grande influência política. Atualmente, a guerra dos Estados Unidos com o Irã não está sendo travada somente com drones, mas com IA, com memes. Tem uma guerra de memes e de IA para conseguir baratear armamentos.
O Irã tem armas baratas de ataque, que exigem armas caras de detecção. Se ele lança 50 drones baratos, Israel tem que usar dezenas de drones caríssimos e mísseis de caças para tentar interceptá-los, que custarão 10 a 20 vezes mais. Por que o Irã conseguiu baratear o armamento? Por causa de muita pesquisa usando IA.
Delegar decisões para IA
Além disso, há um problema de delegar decisões. A Anthropic foi convidada pelo governo norte-americano a permitir que as agências governamentais usem o Claude para ajudar a tomar decisões automaticamente de onde disparar mísseis, como disparar, a que horas, dias, em quais circunstâncias, vindo de onde. A Anthropic não aceitou usar a tecnologia para a morte para que não acontecesse aquilo que aconteceu na escola iraniana, onde mataram 180 meninas porque o alvo estava próximo da escola, mas os cálculos balísticos erraram. Não queriam matar 180 meninas, mas as mataram por quê? Por causa da automatização da decisão.
Imagine delegar uma guerra atômica para um sistema automático apertar o botão vermelho quando tomar a decisão. Não há substituto matemático para a filosofia. A questão filosófica, ética, moral e conceitual é humana; não dá para usar matemática em lugar da deliberação humana, embora eu seja matemático e goste dela. A IA pode auxiliar em muita coisa, mas a palavra final precisa ser humana. A responsabilidade precisa ser dos governos, dos militares. Não podem delegar isso à IA. O perigo é que cada vez mais a preguiça e a ganância nos façam delegar coisas para a IA.
IHU – As universidades estão atentas para esses problemas que o senhor está elencando, desde aqueles relativos à formação dos jovens até o poderio das Big Techs e as questões ligadas à moralidade e agência, envolvendo o uso de IA?
Walter Carnielli – As universidades não estão olhando isso. Recentemente, a Unicamp publicou um documento para o uso consciente de IA nos processos acadêmicos porque os alunos copiam conteúdos e pedem para a IA fazer os trabalhos, e professores escrevem trabalhos rápidos feitos por IA. Não tem nada de errado em usar a IA como enciclopédia rápida e ágil, mas ela fazer o trabalho para a pessoa é que está errado.
Pareceristas estão usando IA para fabricar seus pareceres. Eu uso IA para perguntar se tal ideia com tal ideia tem algum paralelo no mundo, a IA mostra quais são os artigos escritos e publicados, e aí vou verificar os artigos, ou para corrigir textos e melhorar a gramática. Ou seja, eu a uso como uma interface. A IA pode ser usada para facilitar a pesquisa, mas não para escrever um parecer ou uma sentença judicial. A universidade está apenas dizendo que não é para fazer isso.
A Unicamp também alerta para a divulgação de dados de segurança sensíveis, ou seja, não é para colocar na rede dados sensíveis porque a IA não esquece nada; ela guarda todos os dados. Um professor pode pegar uma tese original de um estudante e pedir para a IA ajudá-lo a ter uma posição sobre aquilo. Ao fazer isso, a IA já guardou aquela tese e isso é perigoso porque ela pode liberar aquele conteúdo para outro usuário. Não sabemos o que ela pode fazer com os nossos dados. Então a Unicamp, por exemplo, lançou esse manual pragmático, mas ele não é um ensaio que explique conceitualmente o problema.
IHU – Como as Humanidades poderiam contribuir para trazer esses problemas à tona?
Walter Carnielli – Elas deveriam ajudar mais nisso. As Humanidades se dividem entre duas coisas: um desprezo absoluto pela IA, dizendo que isso é bobagem e não querem se ocupar dela; e um deslumbramento, achando tudo lindo e maravilhoso. Não vejo ainda uma atitude racional de crítica do ponto de vista da metodologia científica nem aqui nem nos Estados Unidos, nem em lugar algum.
Participei de um workshop na Califórnia, onde havia um painel sobre IA, e todo mundo estava mostrando coisas: olha o que a minha IA faz, o que a minha IA não faz. Quando perguntamos o que está por trás disso, dizem que ainda não se chegou nesse ponto. Ou seja, está todo mundo mostrando o que seu cachorro faz de bonito sem entender o que é um cachorro.
IHU – O senhor está falando a partir das diferentes áreas da universidade e como cada uma está reagindo à IA. Do ponto de vista da administração universitária, daqueles que têm o entendimento do que é uma universidade, acontece o mesmo? Há um esforço nas universidades em pensar essas questões?
Walter Carnielli – Não vejo isso em lugar nenhum. Não vejo nenhum esforço concentrado no sentido de fazer um fórum de discussão sobre IA, chamando o pessoal da Física, da Filosofia, das Letras, das Humanidades, da Matemática, ou seja, todo mundo. As universidades não estão nesse ponto ainda. A universidade está entre o deslumbramento, o desprezo, o desdém e o pragmatismo. O que as universidades fazem é disponibilizar para os professores um pacote com as cinco ou seis melhores IAs que existem no mercado. Mas e aí?
IHU – Não há uma reflexão crítica sobre os efeitos desse uso?
Walter Carnielli – Não. É como se estivessem dando uma vassoura mágica para cada bruxo sem explicar como se voa na vassoura.
IHU – Percebe uma visão generalizada e crescente na sociedade de que a formação universitária deixou de ser importante diante do desenvolvimento tecnológico e uso das tecnologias para diversas atividades e, consequentemente, há uma desvalorização da formação universitária?
Walter Carnielli – Estou vendo isso, sim. Estou vendo uma queda de interesse no mestrado em quase todas as universidades do mundo – no Brasil isso ainda não chegou. Quase ninguém mais quer fazer mestrado. As pessoas querem fazer – se é que querem – um doutorado ou PhD rápido. Muita gente está achando que não vale a pena gastar, depois de quatro ou cinco anos de universidade, mais quatro anos de doutorado, ou seja, gastar oito anos da sua vida para conseguir uma boa posição.
O que estão fazendo? Um curso rápido na Microsoft para arrumar emprego. Há também o interesse das grandes Big Techs em abrir cursos por aí, que tiram o poder da universidade. A Microsoft está indo para duas cidades de São Paulo – Hortolândia e Piracicaba – abrindo grandes universidades da Microsoft, com vistas a formar profissionais rápidos e tentar instalar data centers no Brasil – aqueles que gastam energia e são completamente antiecológicos.
IHU – As universidades têm condições de fazer frente a esse processo?
Walter Carnielli – Elas têm que ter. Elas precisam ter coragem de fazer frente, mas elas não têm coragem – e não falo somente das brasileiras, mas das alemãs, onde estudei. As alemãs não têm coragem de fazer frente às grandes editoras, que ganham rios de dinheiro vendendo livros para a bibliotecas das universidades públicas. Há livros de 80 mil reais, 100 mil reais. Não é um; são muitos. Uma vez perguntei por que as grandes universidades não abrem um consórcio para ter uma grande editora universitária, com preços acessíveis. A resposta foi: é perigoso; ninguém quer se meter nisso. Essa covardia intelectual, se é que posso falar assim sem ofender ninguém, se já existe para as editoras, imagine para as IAs. As universidades não têm coragem.
IHU – Qual é o papel das universidades na formação humana no atual estágio de desenvolvimento tecnológico?
Walter Carnielli – Elas ainda podem dar muitas contribuições, basicamente numa área em que atuo também, sobre o pensamento crítico. Ou seja, como pensar criticamente. Não é debater bobagem; é pensar profunda e criticamente. Existe uma teoria complexa da argumentação e do pensamento crítico, mas isso não basta. Não é só a técnica; tem que ter o conhecimento aliado com a discussão filosófica profunda. Isso é imbatível porque isso a IA não consegue fazer, ou seja, ela não consegue dar direções éticas, morais e tomar decisões humanizadas. Decisões humanizadas não são decisões otimizadas. Se deixarmos para a IA tomar decisões otimizadas, ela pode sugerir que se mate metade da população do mundo para se resolver conflitos, criminalidade, fome, poluição. É uma solução matemática, mas não é essa que queremos.
Precisamos recuperar o nosso padrão humano. Por isso se chamam Ciências Humanas, que são centradas no humano, no civilizatório, no estudo político. A economia não é o que muitas universidades estão querendo fazer: torná-la apenas uma disciplina matematizada. Antes, a economia se chamava Filosofia Política ou Economia Política porque não é apenas uma arte matemática maior, onde uns vão ganhar e outros vão perder. É outra coisa. Mas, certamente, não é uma atividade composta somente por algoritmos matemáticos.
Eu adoro algoritmos, mas não posso usá-los para a minha vida amorosa, profissional, meus amigos, meus filhos, meus parentes, nem para o meu gato. Tenho que ter uma atitude humana até com os animais. Então, as universidades têm que recuperar isso. Não vou dizer que as universidades estão indo na direção errada, mas vou dizer que estão indo na velocidade e no passo errados.
IHU – O exercício de pensar, escrever e raciocinar criticamente sobre diferentes aspectos de um mesmo problema real depende fundamentalmente da leitura, do estudo, do confronto de ideias, da elaboração do pensamento. Como as universidades podem mostrar para a sociedade que, primeiramente, isso é um valor em si e que esse valor depende de uma aproximação com as Humanidades?
Walter Carnielli – Essa é uma pergunta dificílima. O que pergunto para os alunos é: vocês querem ser consumidores de ideias ou querem ser produtores de ideias? Querem influenciar nas ideias ou querem apenas comprá-las e usá-las como utilidade? Querem usar o conhecimento e a educação como utilidade? Querem comprar um pouco de coisa para usarem? Não querem atuar, dar ideias, participar do debate civilizatório e conversar sobre isso? Você poderia estar fazendo uma entrevista com a IA.
IHU – Gerardo Tacé, jornalista do CTXT, já fez isso. Entrevistou o Claude. A IA deu respostas articuladas como se estivesse pensando sobre as questões.
Walter Carnielli – Como a IA tem uma memória muito grande – coisa que não estamos exercitando mais – ela memoriza e conecta dois pontos. Nós, por vezes, não pensamos em conectar esses pontos, mas ela pensou por que está tudo ali na sua frente.
De certa maneira, há um raciocínio por trás disso, porque o uso rasteiro da linguagem tem uma lógica, tem uma racionalidade. É um raciocínio básico, imediato, mas desprovido de qualquer atitude humana, filosófica ou crítica.
IHU – As universidades têm privilegiado as chamadas STEM: ciência, tecnologia, engenharia e matemática em prol das Humanidades. Como aproximá-las e conciliar o aprendizado ético e técnico nas universidades para garantir uma formação mais completa?
Walter Carnielli – Primeiro, temos que acabar com essa diferença entre ciências exatas e ciências humanas. É bobagem fazer essa diferença. É tão bobagem que o sucesso da IA se deve a um casamento entre matemática, lógica e linguagem, que é objeto de estudo da linguística. Veja, a IA é feita com números, com probabilidades, mas esses números e essas probabilidades atuam numa das coisas mais importantes que temos, que é a linguagem.
O ser humano reconhece que tem, pelo menos, duas ferramentas absolutamente transcendentes, que são a razão e a linguagem. Quando me refiro à razão, ao raciocínio, não falo só da lógica, mas da racionalidade, porque a lógica é uma parte, a matemática é outra, e a probabilidade, outra. A atividade de pensar com analogias é uma atividade racional muito forte e não é matemática nem probabilística. As ferramentas da racionalidade estão ao nosso dispor. A linguagem, por sua vez, é outra ferramenta maravilhosa. Depois, tivemos a escrita, que é a maneira de perpetuar a linguagem.
No diálogo Fedro, Sócrates está conversando com Fedro e começa a manifestar certa desconfiança em relação à escrita, porque as pessoas não iriam mais memorizar discursos. Ele dizia que a linguagem era como ter um quadro de uma pessoa: parece a pessoa, mas ela não se mexe. Ou seja, Sócrates faz uma crítica dura à escrita. Mas, ao mesmo tempo, quem escreveu esse diálogo? Platão. Foi Platão quem registrou esse diálogo escrito onde se falava contra a escrita. Então, existe essa dualidade – mas Platão não prega um retorno ingênuo à oralidade pura. Havemos de considerar esse tipo de contradição interna que existe na nossa racionalidade humana. A mesma coisa se aplica à IA. Podemos usar perfeitamente bem a IA para criticá-la. É uma espécie de ponto fixo que não é irracional.
Voltando à questão. A divisão entre ciências exatas e humanas é uma bobagem e não dá para fazer essa divisão porque a linguística usa ferramentas da lógica, a lógica usa a linguagem e a história da ciência e os métodos científicos têm que se basear na história. Ou seja, é muito importante essa conexão entre a história da ciência e a metodologia científica. Quer dizer, não dá para separar o conhecimento humano em caixinhas. O que as universidades fazem é, às vezes, privilegiar as STEM [ciência, tecnologia, engenharia e matemática] porque é mais lucrativo e atrai mais. Um curso de Engenharia Elétrica atrai mais estudantes do que um curso de Ciências Sociais.
IHU – Isso não significa que um professor de Ciências Sociais não possa atuar num curso de Engenharia.
Walter Carnielli – Claro, ele pode, mas precisa ser incentivado. A universidade tem que voltar ao pan-epistêmico, a todo o conhecimento. O conhecimento é global. Universidade significa conhecimento globalizado. Não significa separar uma área das outras. Todo conhecimento é importante, desde as técnicas de educação até os métodos da física quântica. Todos são importantes para a existência humana. É claro que isso envolve decisões políticas e financeiras.
IHU – A partir da sua experiência, diria que os profissionais atuantes na administração das universidades, que pensam a configuração presente e futura das universidades, estão cientes da importância da formação humanística na constituição da própria universidade e na formação universitária?
Walter Carnielli – Não. A administração da universidade só pensa burocraticamente. As administrações costumam ser muito burocráticas e delegam as questões de crítica a alguns que queiram fazê-la – mas nem sequer os incentivam. Se eu apresentar um projeto sobre crítica de algum assunto, sinceramente não sei se será aceito. Francamente, posso estar comprando uma briga, mas as administrações universitárias, públicas ou privadas, só estão preocupadas com a burocracia e a judicialização. Dizem: “assine isso”, “cuidado com isso”, “cuidado com aquilo” etc. São só cuidados jurídicos e burocracia. Não vejo outra coisa na administração acadêmica.
IHU – Isso é consequência do que?
Walter Carnielli – Quem é escolhido para reitor nem sempre é a melhor pessoa. Às vezes é um médico famoso. Nada contra os médicos, mas se ele é médico, vai pensar de um jeito, se é advogado, vai pensar de outro, se é economista, de outro. Parece, para mim, que as pessoas que realmente pensam e criticam não galgam esses pináculos do poder. Por que razão, não sei. Ou não se aventuram, ou não querem, ou não gostam. Parece que há dois tipos de pessoas: as que gostam dos pináculos do poder e os galgam, e as que gostam de pensar e não os galgam. Essa é a minha percepção pessoal.
IHU – Recentemente, o senhor disse que já é possível observar um refluxo no mundo do trabalho porque os ganhos que as empresas esperavam obter com a IA não correspondem à realidade. Em que consiste essa mudança? Ela é um sintoma da consciência dos limites da IA no mundo do trabalho? Há ou pode haver uma revalorização das habilidades desenvolvidas a partir de uma formação em Humanidades?
Walter Carnielli – Há seis anos, ninguém era capaz de acessar um sistema de IA. Eles já existiam, mas não conseguíamos, na prática, usar um algoritmo a nosso favor. IA, muito menos. De uma hora para a outra, a OpenAI lançou o ChatGPT e o chatbot, ou seja, hoje, nós até dialogamos com a IA. Um chatbot é um respondedor que tenta ser inteligente. A ideia não é nova, mas agora ela se popularizou.
Por que as grandes Big Techs deram esse presente para a humanidade? Elas estão interessadas no desenvolvimento humano e científico? O que acontece por trás, muito possivelmente, é uma grande demonstração de força das Big Techs para quem as financia. Ou seja, as Big Techs estão mostrando como o negócio “pegou” e os investidores podem continuar colocando dinheiro nesses projetos. O DeepSeek fez outro sistema com menos dinheiro, em contraposição ao norte-americano. Mas deve ter também seus interesses ocultos.
Parece que muito desse divulgado maravilhoso uso das IAs em todas as áreas, que orientou as empresas a demitirem 20% dos funcionários – porque não se precisa mais de analistas, contabilistas, repórteres, professores, porque vamos dar aula pela IA –, funcionou com euforia num certo momento, mas agora se vê o seguinte: investiram-se dez ou vinte vezes mais dinheiro em bilhões de dólares nas IAs do que veio de lucro. Então, as empresas começaram a se perguntar onde está o propalado lucro que teriam. Além disso, muitas empresas mandaram muita gente embora e o negócio não melhorou e começaram a recontratar os funcionários.
Então, está tendo, sim, um certo refluxo. A tão falada bolha da IA, que diziam que iria estourar, não vai estourar. Vamos ter um encolhimento, até que ela vire uma bolhinha. Vejamos: quem paga a sua IA? Como pode ser tudo de graça? Não conseguimos nem um sistema de graça para editar PDFs, e agora se consegue isso para IA, que é muito mais sofisticada? De onde vem essa gratuidade? Vem do massivo investimento em cima de grandes conglomerados financeiros em IA, que agora estão começando a mostrar que está na hora de ver o dinheiro investido.
IHU – A retração na bolha de IA pode gerar que tipo de impacto social?
Walter Carnielli – Pode ter um impacto no deslumbramento, no sentido de ver que a IA não é bem assim. É como fast food. Tem fast food para todo lado, mas quem é cozinheiro e chef viu que não dá para viver de fast food. O fast food vai continuar a existir, mas nós sabemos a diferença entre comida artesanal e aquela feita por máquina de McDonald’s.
IHU – Qual é a cosmovisão que fundamenta o desenvolvimento da IA e a aproximação das Big Techs com governos nacionalistas e o mercado financeiro? É o que o senhor disse anteriormente: lucro, poder e influência?
Walter Carnielli – Não consigo ver uma cosmovisão global que não passe por aí. Esta cosmovisão está ligada ao capitalismo, ao neocapitalismo e ao rentismo. Por que muitas empresas fecham e as pessoas investem o dinheiro no mercado financeiro?
De certa forma, é como perguntar por que razão em todos os lugares em que os Estados Unidos entram, visando liberar um povo oprimido, eles encontram petróleo. Não é coincidência? Em todo lugar em que as Big Techs, as redes sociais e a IA entram, encontram lucro ou promessa de lucro ou promessa de poder. A IA, se não está dando lucro, certamente está acumulando poder. Todo conhecimento humano escrito está dentro da IA. Então, ela domina tudo. Isso não é poder? Sim, isso é muito poder. Toda a vez que um professor usa IA para criticar um trabalho dos alunos, a IA está aprendendo com o trabalho dos alunos porque ela tem uma memória muito grande e cada vez surgem novos mecanismos de memória.
Tudo aquilo que o humano não quer fazer, que é memorizar, a IA está fazendo. Memorizar é poder. Memorizar um ponto aqui e outro ali, e juntar uma coisa com outra e devolvê-la, é um grande poder. Por trás de toda atividade que tem IA e redes sociais, aparece lucro e poder. Não aparece uma atitude civilizatória, como, mais democracia, mais liberdade, mais respeito pela cultura diversificada de gênero e de classes sociais ou uma busca para uma alternativa ao capitalismo. Não estou dizendo que as alternativas são o socialismo ou o comunismo. Pode ser uma nova forma, que ninguém pensou ainda. Por que não se usa a tecnologia nessa direção? Quando você pergunta sobre a cosmovisão, não posso dizer outra coisa que não seja isso. É uma maneira mais cética de ver a situação.
IHU – Como a universidade pode cumprir a missão de ajudar a construir uma civilização mais humana?
Walter Carnielli – Todas as grandes pesquisas têm que vir do poder público. Ninguém vai pagar uma empresa para gerar um sistema econômico alternativo ao capitalismo ou ao socialismo, que seja democrático e vise o bem-estar da população por centenas de anos. Nenhuma empresa vai fazer isso por si mesma. Só dinheiro e esforço público podem fazer isso. Foi o esforço público que gerou a internet. A IA foi um contraexemplo a isso. Que eu saiba, não houve investimento de dinheiro público direto para universidades inventarem um algoritmo. Mas, tradicionalmente, só a universidade e o poder público é que podem gerar revoluções benignas para toda a sociedade.
A sociedade é um polo, mas não é só a universidade. O Estado é outro polo. Talvez, instituições independentes de pesquisa também possam fazer isso. Mas estão fazendo? Não estão fazendo. Estão sempre mergulhadas em pequenos problemas comezinhos e modestos sobre administração, orçamento, problemas regulatórios de jurisdição, judicialização. Se alguém discordar, que me dê um contraexemplo.
IHU – Como fomentar essa proposta num contexto de crise institucional, em que a extrema-direita faz uma crítica muito acentuada ao Estado, fomentando o neoliberalismo, o individualismo, o empreendedorismo, com apoio de uma parcela significativa da sociedade?
Walter Carnielli – Essa é uma situação complexa. Tem uma direita clássica que não pode ser confundida com a extrema-direita, que é contra o Estado, quer diminuir o Estado e quer transformar tudo em empresa. Ela está naquela direção do Sam Altman, de que a inteligência vai virar utilidade. Se perguntarmos a algumas pessoas da extrema-direita o que acham disso, vão achar ótimo e sugerir a abertura de uma empresa, a “Inteligebras”, para depois vendê-la para a iniciativa privada. Para elas, tudo funciona assim. São contra a racionalidade, o pensamento crítico e favoráveis à confecção de ideias, inclusive as falsas.
Perguntei para pessoas de extrema-direita porque continuam propagando ideias falsas, uma vez que sabem que não são verdadeiras. A resposta foi: “porque a verdade não me interessa. Essa informação é falsa, mas vai na direção do que eu quero”. Enquanto perdurar esse ponto de vista entre muitos eleitores, não só no Brasil, mas em vários outros lugares do mundo, vamos ter isso.
Nos Estados Unidos, têm muita gente contra o ataque de Trump ao Irã, mas tem quem diga o seguinte: “O Irã vivia dizendo que nós somos o grande satã. Então, antes que nos matem, vamos exterminá-los”. Ou seja, você vê uma cobra. Ela tem veneno. Mas antes que ela pique, você a mata, e extermina todas as cobras. Essa não é uma atitude ecológica.
Veja o que Trump disse: uma grande civilização será aniquilada. Ele fala em aniquilar uma civilização como se isso fosse bonito, como se isso fosse louvável. E o pior é que para algumas pessoas é louvável, é para se aplaudir. Então, o nosso desafio contra essa fenomenal estupidez é fomentar a educação, o pensamento crítico, a racionalidade e tentar fazer isso ao máximo que se conseguir.




