OpenAI está expandiendo su kit de herramientas de seguridad para ChatGPT con una función llamada Contacto de Confianza, ahora en lanzamiento limitado. Los usuarios pueden seleccionar su perfil, elegir a un adulto de confianza y esperar a que esa persona acepte el rol. Una vez activo, el sistema monitorea las conversaciones en busca de lenguaje que sugiera un riesgo grave de autolesión. Si la IA marca dicho contenido, el usuario recibe una advertencia de que el contacto designado puede ser alertado.
Un equipo de revisión humana especialmente capacitado evalúa la situación. Solo cuando los revisores consideran que el riesgo es genuino, el Contacto de Confianza recibe una notificación por correo electrónico, mensaje de texto o alerta en la aplicación, instándolos a verificar con el usuario. OpenAI afirma que las alertas no incluyen transcripciones de chat ni historial de conversación detallado, preservando la privacidad del usuario. Los usuarios retienen el control total: pueden eliminar o reemplazar su Contacto de Confianza en cualquier momento.
La función se construyó con la guía de profesionales de la salud mental, especialistas en prevención del suicidio y una red global de más de 260 médicos de 60 países. OpenAI posiciona el Contacto de Confianza como una extensión de sus controles parentales y salvaguardias de seguridad existentes, reconociendo que ChatGPT ahora funciona para muchos como más que una herramienta de productividad: puede actuar como un confidente, coach de vida o incluso un terapeuta.
El CEO de OpenAI, Sam Altman, ha comentado anteriormente que los usuarios más jóvenes tratan a ChatGPT como un sistema operativo para decisiones de vida, consultando a la IA sobre todo, desde movimientos de carrera hasta relaciones personales. Esa dependencia subyace en el impulso de la empresa para incorporar infraestructura de apoyo emocional directamente en el producto.
Las reacciones al lanzamiento son mixtas. Algunos usuarios ven la capacidad de enlistar a un adulto de confianza como algo tranquilizador, especialmente para personas vulnerables que de otro modo podrían sufrir en silencio. Otros encuentran la idea de monitoreo impulsado por IA inquietante. En una entrevista reciente, Amy Sutton de Freedom Counselling advirtió que la vigilancia de IA podría exacerbate el estigma de la salud mental, lo que lleva a las personas a ocultar signos de angustia y potencialmente profundizar el problema.
El enfoque de OpenAI refleja una tendencia más amplia en la industria: a medida que los sistemas de IA se vuelven más integrados en la vida diaria, las empresas están luchando por equilibrar la seguridad del usuario y la privacidad. El Contacto de Confianza ilustra un intento de proporcionar una red de seguridad mientras limita la exposición de datos, pero también plantea preguntas sobre cuán cómodos están los usuarios con alertas automatizadas y revisión humana de sus conversaciones privadas.
Por ahora, la función remains limitada a usuarios que optan por participar y designan un contacto. OpenAI no ha divulgado un calendario para un lanzamiento más amplio, pero la empresa dice que continuará perfeccionando el sistema basado en comentarios de expertos en salud mental y uso en el mundo real.
Questo articolo è stato scritto con l'assistenza dell'IA.
News Factory SEO ti aiuta ad automatizzare i contenuti delle notizie per il tuo sito.