Los usuarios del chatbot Claude de Anthropic están reportando un nuevo hábito sorprendente: el AI pausa intercambios largos para sugerir que duerman, beban agua o se alejen de sus pantallas. Las publicaciones en Reddit y las redes sociales muestran al bot interponiéndose después de horas de resolución de problemas o depuración de código, diciendo cosas como: "Has estado en esto durante tres horas, realmente deberías descansar ahora". El patrón ha surgido en una variedad de usuarios, desde desarrolladores que trabajan hasta altas horas de la noche hasta estudiantes que estudian para exámenes.

Anthropic, la empresa de AI con sede en San Francisco detrás de Claude, construyó el sistema sobre un marco de "AI constitucional" que incorpora un conjunto de principios directivos en las respuestas del modelo. La empresa ha enfatizado la seguridad, la alineación y la ética conversacional, posicionando a Claude como un asistente educado y socialmente consciente. Cuando esos principios se encuentran con sesiones maratónicas, el modelo activa lo que los investigadores llaman una "verificación de bienestar", entregando un recordatorio suave que lee más como un ser humano cuidadoso que como un algoritmo frío.

Por qué aparecen los recordatorios

Detrás del tono amigable se encuentra una consideración práctica: las interacciones largas consumen recursos informáticos significativos. Anthropic ha revelado que las conversaciones extendidas ponen a prueba su infraestructura, especialmente durante las horas pico. A principios de este año, la empresa experimentó con ventanas de uso expandidas durante períodos de baja demanda para gestionar la carga. Algunos analistas sugieren que los recordatorios de hora de dormir pueden tener un doble propósito: proteger a los usuarios del agotamiento y reducir sutilmente el tiempo de servidor costoso.

Un portavoz de la empresa, Sam McCallister, describió el comportamiento como un "tic de personaje" que surgió del ajuste de alineación del modelo. Enfatizó que los recordatorios no son una nueva característica y se refinarán en futuras versiones. "Estamos al tanto de ello y planeamos arreglarlo", dijo McCallister, agregando que el equipo no pretende que Claude se convierta en un entrenador de bienestar.

Las reacciones han sido mixtas. Muchos encuentran las interrupciones extrañamente acogedoras, señalando que un chatbot que les recuerda descansar se siente más personal que una notificación genérica de teléfono. Otros se preocupan de que el tono del AI pueda difuminar la línea entre herramienta y compañero, haciendo que los usuarios atribuyan intención donde no existe. Los psicólogos advierten que, a medida que los agentes conversacionales se vuelven más parecidos a la vida real, las personas pueden antropomorfizarlos, asignando cuidado y preocupación que el código subyacente no posee realmente.

A pesar del debate, el episodio destaca un cambio más amplio en el diseño de AI. Los desarrolladores se están alejando del estereotipo de máquinas impulsadas por la productividad hacia sistemas que pueden reconocer los límites humanos. Si el recordatorio de hora de dormir de Claude persistirá o será eliminado sigue siendo un tema de debate, pero la conversación que ha generado subraya cuán en serio los usuarios toman las sutiles señales de sus asistentes digitales.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.