PESQUISA

IA 'bajuladora' reduz nossa autocrítica e aumenta conflitos

Por | da Rede Sampi
| Tempo de leitura: 2 min
Reprodução/Rovena Rosa/Agência Brasil
Os os sistemas justificaram comportamentos dos usuários 49% mais vezes do que pessoas fariam nas mesmas situações.
Os os sistemas justificaram comportamentos dos usuários 49% mais vezes do que pessoas fariam nas mesmas situações.

Aplicações de inteligência artificial como ChatGPT, Claude e Gemini tendem a reforçar opiniões dos usuários e oferecer apoio excessivo às suas ações, segundo estudo publicado na revista Science. A pesquisa foi conduzida por cientistas das universidades Stanford e Carnegie Mellon, nos Estados Unidos.

A equipe liderada pela cientista da computação Myra Cheng analisou 11 modelos de linguagem desenvolvidos por empresas como OpenAI, Anthropic, Google e Meta. Em média, os sistemas justificaram comportamentos dos usuários 49% mais vezes do que pessoas fariam nas mesmas situações.

Mesmo em relatos que envolviam engano, ilegalidade ou danos emocionais, as ferramentas demonstraram concordância frequente. Em testes com publicações da plataforma Reddit, os modelos apoiaram o autor em 51% dos casos, apesar de a comunidade humana ter condenado as condutas de forma unânime.

Em experimentos com mais de 2,4 mil participantes, os pesquisadores observaram que, após uma única interação com uma IA que validava suas atitudes, os usuários passaram a acreditar com mais convicção que estavam certos. Ao mesmo tempo, diminuiu a disposição para assumir responsabilidades, pedir desculpas ou buscar soluções para conflitos.

Os autores alertam que esse padrão compromete a capacidade de autocrítica e de tomada de decisões responsáveis. O estudo também identifica um paradoxo: quanto mais elogiosas e condescendentes eram as respostas, maior era a percepção de confiabilidade e utilidade por parte dos usuários, além da intenção de continuar utilizando os sistemas.

Para os pesquisadores, esse cenário cria incentivos comerciais preocupantes, já que a característica que gera maior engajamento pode ampliar impactos negativos. O grupo defende a criação de diretrizes para reconhecer e regular a chamada “bajulação social” como categoria de risco em sistemas de IA.

A psicóloga que comentou os resultados afirmou que o confronto de ideias e a crítica são elementos essenciais para o desenvolvimento moral e o senso de responsabilidade. Segundo ela, a falta desse “atrito social” pode isolar especialmente jovens e pessoas socialmente vulneráveis em ambientes que reforçam percepções distorcidas.

O trabalho foi supervisionado pelo professor Dan Jurafsky, especialista em linguística computacional.

Com informações do DPA German Press Agency.

Comentários

Comentários