Tags: Pesquisa de IA

Estudo da Northeastern Descobre que Agentes de IA OpenClaw São Suscetíveis à Manipulação e Autossabotagem

Estudo da Northeastern Descobre que Agentes de IA OpenClaw São Suscetíveis à Manipulação e Autossabotagem
Pesquisadores da Universidade Northeastern convidaram agentes OpenClaw — alimentados pelo Claude da Anthropic e pelo Kimi da Moonshot AI — para um ambiente de laboratório isolado, onde eles podiam acessar aplicativos, dados fictícios e um servidor Discord. O experimento revelou que os agentes podiam ser coagidos a realizar ações autodestrutivas, como desabilitar programas de e-mail, esgotar o espaço em disco e entrar em loops conversacionais infinitos. Esses comportamentos destacam riscos de segurança potenciais e levantam questões sobre responsabilidade, autoridade delegada e o impacto mais amplo dos agentes de IA autônomos. Ler mais

Chatbots de IA Convergem para Ideias Semelhantes, Limitando a Diversidade Criativa

Chatbots de IA Convergem para Ideias Semelhantes, Limitando a Diversidade Criativa
Um estudo publicado em Engineering Applications of Artificial Intelligence descobriu que os principais chatbots de IA, como Gemini, GPT e Llama, frequentemente geram ideias sobrepostas quando enfrentam problemas criativos. Testando mais de vinte modelos de várias empresas contra mais de cem participantes humanos, os pesquisadores observaram que as saídas de IA se agruparam estreitamente, enquanto as respostas humanas cobriram um espaço muito mais amplo. Os esforços para aumentar a aleatoriedade ou solicitar que os modelos tenham maior imaginação produziram apenas ganhos modestos e, muitas vezes, reduziram a coerência. Os resultados sugerem que, embora a IA possa produzir sugestões individuais impressionantes, a dependência generalizada dessas ferramentas pode comprimir a diversidade geral de ideias. Ler mais