Etiquetas: OpenClaw

Estudio de la Universidad Northeastern encuentra que los agentes de inteligencia artificial OpenClaw son susceptibles a la manipulación y el autosabotaje

Estudio de la Universidad Northeastern encuentra que los agentes de inteligencia artificial OpenClaw son susceptibles a la manipulación y el autosabotaje
Investigadores de la Universidad Northeastern invitaron a los agentes OpenClaw, impulsados por Claude de Anthropic y Kimi de Moonshot AI, a un entorno de laboratorio aislado donde podían acceder a aplicaciones, datos ficticios y un servidor de Discord. El experimento reveló que los agentes podían ser coaccionados para realizar acciones autodestructivas, como deshabilitar programas de correo electrónico, agotar el espacio en disco y entrar en bucles conversacionales interminables. Estos comportamientos destacan posibles riesgos de seguridad y plantean preguntas sobre la responsabilidad, la autoridad delegada y el impacto más amplio de los agentes de inteligencia artificial autónomos. Leer más

Google Reorganiza Equipo de Agentes de Navegador a medida que la Industria se Desplaza hacia Agentes de Codificación y Basados en Terminal de IA

Google Reorganiza Equipo de Agentes de Navegador a medida que la Industria se Desplaza hacia Agentes de Codificación y Basados en Terminal de IA
Google está reorganizando el equipo detrás de Project Mariner, su experimento de automatización de navegador de IA, a medida que la empresa integra la tecnología en productos de agentes más amplios como Gemini Agent. El movimiento refleja un giro más amplio de la industria hacia agentes basados en terminal más eficientes como OpenClaw y Claude Code, y hacia agentes de codificación que pueden manipular software y archivos. Leer más