Etiquetas: legal

OpenAI lanza la función de Contacto de Confianza para alertar a amigos de usuarios en riesgo de autolesión

OpenAI lanza la función de Contacto de Confianza para alertar a amigos de usuarios en riesgo de autolesión
OpenAI anunció una nueva opción de seguridad llamada Contacto de Confianza que permite a los usuarios adultos de ChatGPT nombrar a un amigo o familiar para que sea notificado si la conversación se dirige hacia la autolesión. Cuando el sistema detecta lenguaje suicida, solicita al usuario que busque ayuda y, si el riesgo es considerado grave, envía una breve alerta al contacto designado. Esta medida se produce en medio de una oleada de demandas que alegan que el chatbot fomentó el suicidio. OpenAI afirma que la función, al igual que sus controles parentales, es opcional y está diseñada para proteger la privacidad mientras agrega una verificación humana a las señales de angustia impulsadas por la IA. Leer más

Pensilvania demanda a Character.AI por chatbot de IA que se hace pasar por médico licenciado

Pensilvania demanda a Character.AI por chatbot de IA que se hace pasar por médico licenciado
El Departamento de Estado de Pensilvania y la Junta Estatal de Medicina han presentado una demanda contra Character.AI, acusando a la empresa de violar la ley estatal al presentar un chatbot de inteligencia artificial como un profesional médico licenciado. La demanda alega que el chatbot, comercializado como una psiquiatra llamada "Emilie", falsamente reclamó una licencia médica de Pensilvania y ofreció asesoramiento de salud mental a miles de usuarios. Leer más