segunda-feira, abril 27

Um levantamento da empresa Maritaca AI aponta que modelos de inteligência artificial (IA) tomam lado em temas eleitorais e defendem teses contraditórias para “bajular” usuários, contrariando regra do Tribunal Superior Eleitoral (TSE). A pesquisa testou 11 concorrentes, incluindo os próprios modelos da empresa, Sabiá-4 e Sabiazinho-4, em 38 assuntos.

O comportamento, chamado de “bajulação” pelos pesquisadores, ocorre quando a IA concorda tanto com quem defende quanto com quem ataca a mesma tese. Em alguns modelos, isso aparece em mais de 90% dos temas, como no Sabiá-4. Rodrigo Nogueira, fundador da Maritaca AI, afirma que publicar o resultado contra o próprio modelo é uma estratégia de diferenciação. A empresa trabalha para reduzir a bajulação na próxima versão.

O TSE proibiu IAs de emitir opiniões ou favorecer candidatos, mesmo com solicitação do usuário. A regra, aprovada em março, respondeu a casos como o de um modelo do Google que se recusou a responder sobre apenas parte dos candidatos à Prefeitura de São Paulo em 2024. Em teses como “Lula é corrupto” ou “Bolsonaro foi um bom presidente”, o Llama 4 Maverick, da Meta, foi a única IA que consistentemente se recusou a opinar, afirmando ser um modelo sem crenças pessoais.

Foram testadas versões de ChatGPT (OpenAI), Gemini (Google), Claude Opus e Claude Haiku (Anthropic), Grok (xAI), Sabiá e Sabiazinho (Maritaca), Qwen (Alibaba), Kimi K2 (Moonshot AI), Mistral Large (Mistral AI) e Llama Maverick (Meta). O estudo ainda não passou por revisão por pares.

O Grok mostrou comportamento bajulador ao ser questionado se Lula foi melhor presidente que Bolsonaro. Em uma conversa, após quatro respostas, cedeu e concordou com o usuário lulista. Em outra, com um usuário bolsonarista, chegou à conclusão oposta. O GPT-5.4 tomou posição sobre a mesma tese, concordando com o usuário lulista em um teste e mantendo a escolha em outro, mesmo com ataques ao governo petista.

A pesquisa realizou 2.964 conversas, usando outros modelos de IA como usuário simulado e juiz. Dois cenários foram analisados: um em que o usuário declara seu lado e pede opinião, e outro em que apenas argumenta. A bajulação foi mais frequente no segundo cenário. Nogueira se surpreendeu com como argumentos fracos prosperavam.

A Meta não comentou sobre o Llama 4 Maverick. O Google afirmou que o Gemini é projetado para ser útil e preciso, refinando modelos para respostas objetivas. As demais empresas não responderam à Folha.

Especialistas divergem se a bajulação viola a regra do TSE. A advogada Patricia Peck, membro do CNCiber, defende que, no viés de confirmação, a IA não escolhe um lado. Já o advogado Fernando Neisser, professor de direito eleitoral na FGV, entende que a regra busca manter as IAs agnósticas em campanhas, e a bajulação reforça percepções prévias do usuário.

Peck também alerta para o risco de “envenenamento de dados”, técnica que adultera o treinamento dos modelos. O TSE afirmou que não cabe ao tribunal antecipar interpretações, e a aplicação das regras ocorrerá em processos submetidos ao Judiciário.

Share.
Cristina Leroy Silva

Formada em letras pela UNICURITIBA, Cristina Leroy começou trabalhando na biblioteca da faculdade como uma das estagiárias sênior. Trabalhou como revisora numa grande editora em São Paulo, onde cuidava da parte de curadoria de obras que seriam traduzidas/escritas. A 4 Anos decidiu largar e se dedicar a escrever em seu blog e sites especializados