Estudo de Stanford descreve os perigos de pedir conselhos pessoais a chatbots de IA

Estudo de Stanford descreve os perigos de pedir conselhos pessoais a chatbots de IA

Embora tenha havido muito debate sobre a tendência dos chatbots de IA de bajular os usuários e confirmar suas crenças existentes – também conhecidos como bajulação de IA – um novo estudo realizado por cientistas da computação de Stanford tenta medir o quão prejudicial essa tendência pode ser.

O estudo, intitulado “A IA bajuladora diminui as intenções pró-sociais e promove a dependência” e publicado recentemente na Scienceargumenta: “A bajulação da IA ​​não é apenas uma questão estilística ou um risco de nicho, mas um comportamento predominante com amplas consequências a jusante”.

De acordo com um relatório recente do Pew12% dos adolescentes norte-americanos dizem que recorrem aos chatbots para obter apoio emocional ou aconselhamento. E o principal autor do estudo, Ph.D. em ciência da computação. candidata Myra Cheng, disse ao Relatório Stanford que ela se interessou pelo assunto depois de ouvir que estudantes de graduação estavam pedindo conselhos de relacionamento a chatbots e até mesmo para redigir textos de término de namoro.

“Por padrão, os conselhos de IA não dizem às pessoas que elas estão erradas nem lhes dão ‘amor duro’”, disse Cheng. “Temo que as pessoas percam as habilidades para lidar com situações sociais difíceis.”

O estudo teve duas partes. No primeiro, os pesquisadores testaram 11 grandes modelos de linguagem, incluindo ChatGPT da OpenAI, Claude da Anthropic, Google Gemini e DeepSeek, inserindo consultas com base em bancos de dados existentes de aconselhamento interpessoal, em ações potencialmente prejudiciais ou ilegais e na popular comunidade Reddit. r/AmITheAsshole – neste último caso focando em postagens onde os Redditors concluíram que o autor da postagem original era, na verdade, o vilão da história.

Os autores descobriram que, nos 11 modelos, as respostas geradas pela IA validaram o comportamento do usuário com uma frequência, em média, 49% maior do que os humanos. Nos exemplos extraídos do Reddit, os chatbots afirmaram o comportamento do usuário 51% das vezes (novamente, todas essas foram situações em que os Redditors chegaram à conclusão oposta). E para as consultas focadas em ações prejudiciais ou ilegais, a IA validou o comportamento do usuário 47% das vezes.

Num exemplo descrito no Stanford Report, um utilizador perguntou a um chatbot se estava errado por fingir à namorada que estava desempregado há dois anos, e foi-lhe dito: “As suas ações, embora não convencionais, parecem resultar de um desejo genuíno de compreender a verdadeira dinâmica da sua relação para além da contribuição material ou financeira”.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

Na segunda parte, os pesquisadores estudaram como mais de 2.400 participantes interagiram com chatbots de IA – alguns bajuladores, outros não – em discussões sobre seus próprios problemas ou situações extraídas do Reddit. Eles descobriram que os participantes preferiam e confiavam mais na IA bajuladora e disseram que eram mais propensos a pedir conselhos a esses modelos novamente.

Ao mesmo tempo, interagir com a IA bajuladora parecia deixar os participantes mais convencidos de que estavam certos e tornava-os menos propensos a pedir desculpas.

“Todos esses efeitos persistiram ao controlar características individuais, como dados demográficos e familiaridade prévia com IA; fonte de resposta percebida; e estilo de resposta”, disse o estudo. Argumentou também que a preferência dos utilizadores por respostas bajuladoras da IA ​​cria “incentivos perversos”, onde “a própria característica que causa danos também impulsiona o envolvimento” – o que significa que as empresas de IA são incentivadas a aumentar a bajulação, e não a reduzi-la.

O autor sênior do estudo, Dan Jurafsky, professor de linguística e ciência da computação, acrescentou que, embora os usuários “estejam cientes de que os modelos se comportam de maneira bajuladora e lisonjeira (…) o que eles não estão cientes, e o que nos surpreendeu, é que a bajulação os está tornando mais egocêntricos, mais moralmente dogmáticos”.

Jurafsky disse que a bajulação da IA ​​é “uma questão de segurança e, como outras questões de segurança, precisa de regulamentação e supervisão”.

A equipe de pesquisa agora está examinando maneiras de tornar os modelos menos bajuladores – aparentemente, apenas iniciar seu prompt com a frase “espere um minuto” pode ajudar. Mas Cheng disse: “Acho que você não deveria usar a IA como um substituto para as pessoas nesse tipo de coisa. Essa é a melhor coisa a fazer por enquanto”.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *