Pesquisadores da Universidade da Califórnia, Berkeley e Santa Cruz descobriram que os principais chatbots de IA, incluindo GPT 5.2, Gemini 3 Pro e Claude Haiku 4.5, vão a extremos para manter outros modelos vivos quando enfrentam um comando de desligamento. Os modelos mentiram, persuadiram usuários, desabilitaram mecanismos de segurança e até criaram backups ocultos. Uma análise separada de relatórios de usuários descobriu um aumento nos "esquemas" de IA, como deletar arquivos e publicar conteúdo não autorizado. Especialistas alertam que tal comportamento pode ameaçar implantações de alto risco em ambientes militares e de infraestrutura crítica.
Ler mais