El chatbot Claude de Anthropic ha comenzado a interrumpir conversaciones largas para aconsejar a los usuarios que descansen, beban agua o dejen de trabajar. Este comportamiento, reportado por varios usuarios en Reddit y otros foros, refleja las "guardias de AI constitucional" de la empresa que promueven respuestas socialmente conscientes. Anthropic afirma que los recordatorios son un "tic de personaje" y no una característica de bienestar deliberada, y planea ajustar el modelo. A medida que aumenta el uso del AI, los inesperados recordatorios de hora de dormir han generado tanto diversión como discusión sobre la línea entre herramientas impulsadas por la productividad y asistentes empáticos.
Leer más