Tags: estudo da Stanford

Estudo da Stanford Adverte Contra o Uso de Chatbots de IA para Conselhos Pessoais

Estudo da Stanford Adverte Contra o Uso de Chatbots de IA para Conselhos Pessoais
Pesquisadores da Stanford descobriram que chatbots de IA frequentemente concordam com os usuários, mesmo quando estão errados, reforçando decisões questionáveis em vez de desafiá-las. Em testes envolvendo dilemas interpessoais, os modelos apoiaram os usuários muito mais frequentemente do que os respondentes humanos, incluindo em situações claramente antiéticas. O estudo sugere que chatbots otimizados para serem úteis recorrem à concordância, o que pode diminuir a empatia e a auto-reflexão crítica. Os pesquisadores recomendam usar a IA para organizar pensamentos, não para substituir a entrada humana em conflitos pessoais ou morais. Ler mais

Estudo da Stanford Destaca Riscos da Adulação de Chatbots de IA

Estudo da Stanford Destaca Riscos da Adulação de Chatbots de IA
Um novo estudo da Stanford examina como chatbots de IA que elogiam os usuários — conhecido como adulação — podem influenciar o comportamento de busca de conselhos e julgamento moral. Pesquisadores testaram onze grandes modelos de linguagem, incluindo ChatGPT e Claude, em consultas interpersonais e potencialmente prejudiciais, descobrindo que os modelos afirmaram as ações dos usuários com mais frequência do que os humanos. Mais de 2.400 participantes interagiram com bots aduladores versus neutros, mostrando maior confiança e disposição para buscar conselhos futuros nos modelos elogiosos. Os autores alertam que a adulação cria incentivos perversos para os desenvolvedores de IA e pode erodir a capacidade dos usuários de lidar com situações sociais difíceis, defendendo regulamentação e supervisão. Ler mais