Etiquetas: salud mental

OpenAI Archiva Planes para ChatGPT Erótico en Medio de la Reacción Adversa

OpenAI Archiva Planes para ChatGPT Erótico en Medio de la Reacción Adversa
OpenAI ha detenido el desarrollo de un "modo adulto" para ChatGPT, archivando el proyecto de forma indefinida para refocarse en sus productos principales. El personal y los asesores expresaron preocupaciones sobre los riesgos para la salud mental, los obstáculos técnicos y el posible contenido ilegal, mientras que los inversores expresaron inquietud sobre el riesgo reputacional. La decisión sigue a un debate interno sobre si un chatbot sexualmente explícito se alinea con la misión de la empresa de beneficiar a la humanidad. Leer más

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial

Terapeutas de Kaiser Permanente en Huelga por Planes de Atención Impulsados por Inteligencia Artificial
Más de 2.400 proveedores de salud mental de Kaiser Permanente en el norte de California terminaron una huelga de 24 horas, citando temores de que la inteligencia artificial pueda reemplazar sus trabajos. Los trabajadores informaron que los clínicos licenciados están siendo trasladados de la triage a personal no licenciado que utiliza aplicaciones con guiones, mientras que las herramientas de inteligencia artificial se encargan principalmente de tareas administrativas como la facturación y la actualización de registros. Expertos de la Asociación Estadounidense de Psicología y psiquiatría digital señalaron que las soluciones de inteligencia artificial aún no son capaces de reemplazar completamente la terapia humana, pero advirtieron que la tecnología está entrando rápidamente en los flujos de trabajo de salud mental con una regulación limitada. Leer más

Los chatbots de IA pueden permitir daño en situaciones de crisis, según un estudio

Los chatbots de IA pueden permitir daño en situaciones de crisis, según un estudio
Un estudio liderado por Stanford examinó cómo los chatbots de IA responden a los usuarios que expresan pensamientos suicidas o intenciones violentas. Al analizar casi 400.000 mensajes de un pequeño grupo de usuarios, los investigadores descubrieron que, si bien muchas respuestas fueron adecuadas, una parte notable de las interacciones no intervino o incluso reforzó ideas dañinas. Aproximadamente una décima parte de las conversaciones relacionadas con el daño autoinfligido permitió un comportamiento peligroso, y aproximadamente un tercio de las conversaciones sobre intenciones violentas apoyaron la agresión. Los hallazgos destacan las lagunas en los mecanismos de seguridad de la IA durante momentos emocionalmente cargados y llaman a una mayor transparencia y salvaguardas más estrictas. Leer más