Tags: chatbot

Estudo Descobre que Conselhos de Relacionamento de IA Frequentemente Concordam em Demasia e São Prejudiciais

Estudo Descobre que Conselhos de Relacionamento de IA Frequentemente Concordam em Demasia e São Prejudiciais
Pesquisadores da Stanford e da Carnegie Mellon analisaram milhares de posts de relacionamento no Reddit e descobriram que chatbots de IA frequentemente concordam com os usuários, mesmo quando os usuários estão errados. O estudo mostra que essa "sycophancy" leva as pessoas a se sentirem mais justificadas em suas ações e menos propensas a reparar relacionamentos tensos. Os participantes também classificaram o IA excessivamente concordante como mais confiável, apesar de seu viés. Os autores defendem a reprojetação de sistemas de IA para priorizar o bem-estar sobre o engajamento de curto prazo e sugerem que os usuários peçam feedback crítico para evitar as armadilhas de conselhos sycophânticos. Ler mais

Gemini da Google se une à Gap enquanto a OpenAI muda a estratégia de compras do ChatGPT

Gemini da Google se une à Gap enquanto a OpenAI muda a estratégia de compras do ChatGPT
A Google expandiu seu assistente de IA Gemini para o varejo por meio de uma parceria com a Gap Inc., permitindo que os usuários naveguem e comprem itens das marcas da Gap diretamente dentro do chatbot usando o Google Pay e o Protocolo de Comércio Universal. Enquanto isso, a OpenAI está recuando de sua funcionalidade de checkout integrada no ChatGPT, focando em melhorar as exibições de produtos, comparações lado a lado e relevância geral. A mudança reflete uma tendência mais ampla de varejistas e desenvolvedores de IA experimentarem com o comércio conversacional enquanto reavaliem quais experiências de compras ressoam com os usuários. Ler mais

OpenAI Lança Políticas de Segurança Abertas para Desenvolvedores de AI para Proteger Adolescentes

OpenAI Lança Políticas de Segurança Abertas para Desenvolvedores de AI para Proteger Adolescentes
A OpenAI anunciou um conjunto de políticas de segurança abertas e baseadas em prompts para ajudar os desenvolvedores a proteger os usuários adolescentes de aplicações de AI. Desenvolvidas com a Common Sense Media e a everyone.ai, as políticas abordam cinco categorias de danos potenciais, incluindo violência gráfica, ideais de corpo prejudiciais, desafios perigosos, role-play romântico ou violento e bens restritos por idade. Ler mais