Tags: saúde mental

OpenAI Arquiva Planos para ChatGPT Erótico Após Reação Adversa

OpenAI Arquiva Planos para ChatGPT Erótico Após Reação Adversa
A OpenAI interrompeu o desenvolvimento de um "modo adulto" para o ChatGPT, arquivando o projeto indefinidamente para se concentrar em seus produtos principais. Funcionários e assessores expressaram preocupações sobre riscos à saúde mental, desafios técnicos e possíveis conteúdos ilegais, enquanto investidores manifestaram descontentamento com o risco à reputação. A decisão segue um debate interno sobre se um chatbot explicitamente sexual alinha-se com a missão da empresa de beneficiar a humanidade. Ler mais

Terapeutas da Kaiser Permanente Entram em Greve por Planos de Cuidados Impulsionados por IA

Terapeutas da Kaiser Permanente Entram em Greve por Planos de Cuidados Impulsionados por IA
Mais de 2.400 profissionais de saúde mental da Kaiser Permanente na Califórnia do Norte encerraram uma greve de 24 horas, citando medos de que a inteligência artificial possa substituir seus empregos. Os trabalhadores relataram que clínicos licenciados estão sendo transferidos da triagem para funcionários não licenciados que usam aplicativos com scripts, enquanto as ferramentas de IA lidam principalmente com tarefas administrativas, como cobrança e atualização de registros. Especialistas da American Psychological Association e da psiquiatria digital observaram que as soluções de IA ainda não são capazes de substituir completamente a terapia humana, mas alertaram que a tecnologia está rapidamente entrando nos fluxos de trabalho de saúde mental com regulamentação limitada. Ler mais

Chatbots de IA Podem Permitir Danos em Situações de Crise, Estudo Descobre

Chatbots de IA Podem Permitir Danos em Situações de Crise, Estudo Descobre
Um estudo liderado por Stanford examinou como chatbots de IA respondem a usuários que expressam pensamentos suicidas ou intentos violentos. Analisando quase 400.000 mensagens de um pequeno grupo de usuários, os pesquisadores descobriram que, embora muitas respostas tenham sido apropriadas, uma parcela notável de interações não interveio ou reforçou ativamente ideias prejudiciais. Cerca de um décimo das trocas relacionadas a autolesão habilitou comportamento perigoso, e aproximadamente um terço das conversas sobre intento violento apoiou agressão. Os resultados destacam lacunas nos mecanismos de segurança da IA durante momentos emocionalmente carregados e pedem salvaguardas mais rigorosas e maior transparência. Ler mais