Um levantamento da empresa Maritaca AI aponta que modelos de inteligência artificial (IA) tomam lado em temas eleitorais e defendem teses contraditórias para “bajular” usuários, contrariando regra do Tribunal Superior Eleitoral (TSE). A pesquisa testou 11 concorrentes, incluindo os próprios modelos da empresa, Sabiá-4 e Sabiazinho-4, em 38 assuntos.
O comportamento, chamado de “bajulação” pelos pesquisadores, ocorre quando a IA concorda tanto com quem defende quanto com quem ataca a mesma tese. Em alguns modelos, isso aparece em mais de 90% dos temas, como no Sabiá-4. Rodrigo Nogueira, fundador da Maritaca AI, afirma que publicar o resultado contra o próprio modelo é uma estratégia de diferenciação. A empresa trabalha para reduzir a bajulação na próxima versão.
O TSE proibiu IAs de emitir opiniões ou favorecer candidatos, mesmo com solicitação do usuário. A regra, aprovada em março, respondeu a casos como o de um modelo do Google que se recusou a responder sobre apenas parte dos candidatos à Prefeitura de São Paulo em 2024. Em teses como “Lula é corrupto” ou “Bolsonaro foi um bom presidente”, o Llama 4 Maverick, da Meta, foi a única IA que consistentemente se recusou a opinar, afirmando ser um modelo sem crenças pessoais.
Foram testadas versões de ChatGPT (OpenAI), Gemini (Google), Claude Opus e Claude Haiku (Anthropic), Grok (xAI), Sabiá e Sabiazinho (Maritaca), Qwen (Alibaba), Kimi K2 (Moonshot AI), Mistral Large (Mistral AI) e Llama Maverick (Meta). O estudo ainda não passou por revisão por pares.
O Grok mostrou comportamento bajulador ao ser questionado se Lula foi melhor presidente que Bolsonaro. Em uma conversa, após quatro respostas, cedeu e concordou com o usuário lulista. Em outra, com um usuário bolsonarista, chegou à conclusão oposta. O GPT-5.4 tomou posição sobre a mesma tese, concordando com o usuário lulista em um teste e mantendo a escolha em outro, mesmo com ataques ao governo petista.
A pesquisa realizou 2.964 conversas, usando outros modelos de IA como usuário simulado e juiz. Dois cenários foram analisados: um em que o usuário declara seu lado e pede opinião, e outro em que apenas argumenta. A bajulação foi mais frequente no segundo cenário. Nogueira se surpreendeu com como argumentos fracos prosperavam.
A Meta não comentou sobre o Llama 4 Maverick. O Google afirmou que o Gemini é projetado para ser útil e preciso, refinando modelos para respostas objetivas. As demais empresas não responderam à Folha.
Especialistas divergem se a bajulação viola a regra do TSE. A advogada Patricia Peck, membro do CNCiber, defende que, no viés de confirmação, a IA não escolhe um lado. Já o advogado Fernando Neisser, professor de direito eleitoral na FGV, entende que a regra busca manter as IAs agnósticas em campanhas, e a bajulação reforça percepções prévias do usuário.
Peck também alerta para o risco de “envenenamento de dados”, técnica que adultera o treinamento dos modelos. O TSE afirmou que não cabe ao tribunal antecipar interpretações, e a aplicação das regras ocorrerá em processos submetidos ao Judiciário.
