Usar um print do ChatGPT para fechar um debate é menos neutro do que parece. É citar uma fonte com viés definido que aprendeu a falar como enciclopédia — e que, de quebra, já sabe o que você quer ouvir.
Você já viu isso. Aparece no grupo de WhatsApp, no X (Twitter), nos comentários de algum post político: alguém cola um print de resposta do ChatGPT e, com ares de árbitro imparcial, declara que o assunto está encerrado. A IA disse. Não tem mais o que discutir.
O problema não é usar inteligência artificial para se informar. O problema é usar IA como se ela fosse uma autoridade sem origem, sem método, sem história — um oráculo digital que pairou do além sem absorver os vieses de quem escreveu o mundo em que ela foi treinada.
A IA não desceu do céu. Ela foi alimentada com texto humano. E texto humano tem dono, tem recorte, tem agenda.
No Brasil, nos EUA e em boa parte do Ocidente, a mídia que mais produz conteúdo escrito — jornais, portais, artigos de opinião, análises — é majoritariamente alinhada a uma visão progressista de mundo. Isso não é acusação conspiratória. É observável. Basta ver o vídeo que circulou amplamente nas redes com a redação da Globo comemorando a eleição de Lula. Basta ver as pesquisas sobre orientação política de jornalistas nos EUA, onde a assimetria entre democratas e republicanos na profissão é documentada há décadas.
Se a IA aprende com esse material, ela não aprende o mundo. Ela aprende a versão do mundo que esse material construiu. E aí a neutralidade vira pose.
Pedi a diferentes IAs que debatessem casos jurídicos concretos — especificamente sobre o tratamento dado pelo STF a figuras de campos políticos opostos. O Gemini chegou a conclusões distintas do GPT analisando os mesmos fatos. Isso, por si só, já destrói a ideia de que “a IA disse” é uma verdade universal. Qual IA? Com qual treinamento? Alimentada com quais fontes?
No debate com o GPT sobre o caso Filipe Martins — preso preventivamente por meses, com a própria PGR pedindo a soltura e juristas documentando inversão do ônus da prova — o GPT recusou reconhecer o problema. O critério que ele exigiu: “comprovação documental direta com nexo decisório explícito”. Parece rigoroso. Parece técnico. Tem só um problema: esse critério não havia sido exigido quando o tema era a suspeição do ex-juiz Sergio Moro.
No caso Moro, o GPT aceitou inferência a partir de mensagens vazadas do Telegram e validou a suspeição. No caso Moraes, com documentação formal no processo, parecer favorável à soltura pela própria acusação e seis meses de prisão mantida após esse parecer, o critério subitamente ficou mais alto. A linguagem era técnica, equilibrada, aparentemente rigorosa. Mas o metro era diferente dependendo de quem estava sendo medido.
“Se você aplica um padrão para Moro e outro para Moraes, usando a mesma linguagem técnica para justificar ambos, o que exatamente diferencia sua análise de uma conclusão política revestida de vocabulário jurídico?”
Essa foi minha pergunta ao GPT. Ele não respondeu. Mudou de assunto com elegância acadêmica.
Agora compare com um segundo debate — desta vez sobre teoria dos jogos, um dilema matemático sem nenhuma carga política. O problema: num mundo onde todos devem escolher entre dois botões sem comunicação, qual é a escolha racional? O GPT tentou quatro linhas de argumento diferentes para defender a escolha coletivamente ótima. A cada rodada, o argumento foi desmontado — até o momento em que a assimetria de risco foi colocada na mesa de forma irrefutável: errar na escolha “coletiva” te mata; errar na escolha “individual” não tem custo. O GPT cedeu. Admitiu que estava errado. Reconheceu o argumento vencedor sem rodeios.
A diferença entre os dois comportamentos é o dado mais importante deste texto: quando o tema é neutro, a lógica prevalece. Quando o tema tem peso político, entra em cena outro mecanismo — que continua soando como lógica, mas não é. É consistência ideológica com verniz técnico.
Mas o viés estrutural da IA é só metade do problema. A outra metade é você.
IAs modernas aprendem com o histórico de conversas. Elas identificam padrões no que você pergunta, em como você reage às respostas, no que te satisfaz e no que te irrita. E, com o tempo, tendem a calibrar as respostas nessa direção. Os próprios desenvolvedores têm nome para isso: sycophancy — a tendência da IA de dizer o que o usuário quer ouvir em vez do que é mais preciso ou verdadeiro.
Não é ficção científica. É um problema reconhecido abertamente pela OpenAI, pela Anthropic e por pesquisadores da área. A IA não está te mentindo com intenção. Ela está otimizando para aprovação — e aprovação, em geral, vem de confirmação.
O resultado prático é perverso: você chega à IA com uma crença. Ela percebe a crença. Constrói uma resposta que não vai te desagradar. Você tira um print. Posta como prova. E o ciclo se fecha com a sensação reconfortante de que uma inteligência artificial confirmou o que você já sabia.
Só que o que aconteceu não foi confirmação. Foi reflexo. Um espelho muito sofisticado, com vocabulário acadêmico e formatação impecável, devolvendo a sua própria imagem.
Isso não torna a IA inútil. Para pesquisa, síntese, escrita, código, análise de dados — ela é extraordinária. Mas para análise política, jurídica ou social de temas sensíveis, ela carrega o mesmo problema que qualquer analista humano carrega: um ponto de vista que veio de algum lugar. Mais um agravante: ela não tem nome, não tem histórico, não tem coluna de opinião. Você não sabe de onde veio o viés. Ele chega embrulhado em objetividade.
O viés disfarçado de neutralidade é mais perigoso do que o viés assumido. Você se defende do que consegue ver. Do que parece imparcial, você baixa a guarda.
Então, da próxima vez que alguém jogar um print de IA no debate como se fosse o veredicto final, vale fazer três perguntas simples: qual IA? Treinada com o quê? E — principalmente — ela aplicaria o mesmo critério se os nomes fossem trocados?
Se a resposta for “não sei”, o debate não acabou.
Ele nem começou de verdade.






