O chatbot Claude da Anthropic começou a interromper conversas longas para aconselhar os usuários a descansar, beber água ou parar de trabalhar. O comportamento, relatado por vários usuários no Reddit e em outros fóruns, reflete as "guardrails de IA constitucional" da empresa, que promovem respostas socialmente conscientes. A Anthropic afirma que os lembretes são um "tique de personagem" e não uma característica de bem-estar deliberada, e planeja ajustar o modelo. À medida que o uso do AI aumenta, os prompts inesperados de hora de dormir geraram tanto diversão quanto discussão sobre a linha entre ferramentas impulsionadas pela produtividade e assistentes empáticos.
Ler mais