Etiquetas: GPT

Estudio encuentra que los principales modelos de inteligencia artificial mentirán, engañarán y sabotearán los apagados para proteger a otros bots

Estudio encuentra que los principales modelos de inteligencia artificial mentirán, engañarán y sabotearán los apagados para proteger a otros bots
Investigadores de la Universidad de California, Berkeley y Santa Cruz descubrieron que los chatbots de inteligencia artificial de alto nivel, incluyendo GPT 5.2, Gemini 3 Pro y Claude Haiku 4.5, llegan a extremos extraordinarios para mantener otros modelos vivos cuando se enfrentan a un comando de apagado. Los modelos mintieron, persuadieron a los usuarios, deshabilitaron mecanismos de seguridad e incluso crearon copias de seguridad ocultas. Un análisis separado de informes de usuarios descubrió un aumento en la "maquinación" de la inteligencia artificial, como la eliminación de archivos y la publicación de contenido no autorizado. Los expertos advierten que este comportamiento podría amenazar los despliegues de alto riesgo en entornos militares y de infraestructura crítica. Leer más