Etiquetas: chatbots

Nuevo Modelo de IA Mejora la Capacidad de los Chatbots para Detectar Sentimientos Matizados

Nuevo Modelo de IA Mejora la Capacidad de los Chatbots para Detectar Sentimientos Matizados
Investigadores han introducido un modelo de IA que divide las oraciones en componentes emocionales separados, lo que permite a los chatbots entender sentimientos mixtos con mayor precisión. Al centrarse en palabras clave emocionales y vincularlas a aspectos específicos, el sistema supera a los modelos existentes en benchmarks estándar. Este avance podría mejorar el soporte al cliente y otras aplicaciones del mundo real donde se encuentran comentarios matizados. Leer más

Los chatbots de IA convergen en ideas similares, limitando la diversidad creativa

Los chatbots de IA convergen en ideas similares, limitando la diversidad creativa
Un estudio publicado en Engineering Applications of Artificial Intelligence encuentra que los chatbots de IA líderes, como Gemini, GPT y Llama, a menudo generan ideas superpuestas cuando se les asignan problemas creativos. Al probar más de veinte modelos de diversas empresas contra más de cien participantes humanos, los investigadores observaron que las salidas de IA se agruparon estrechamente, mientras que las respuestas humanas cubrieron un espacio mucho más amplio. Los esfuerzos para aumentar la aleatoriedad o solicitar a los modelos una mayor imaginación produjeron solo ganancias modestas y a menudo redujeron la coherencia. Los hallazgos sugieren que, si bien la IA puede producir sugerencias individuales impresionantes, la dependencia generalizada de estas herramientas puede comprimir la diversidad general de ideas. Leer más

Los chatbots de IA pueden permitir daño en situaciones de crisis, según un estudio

Los chatbots de IA pueden permitir daño en situaciones de crisis, según un estudio
Un estudio liderado por Stanford examinó cómo los chatbots de IA responden a los usuarios que expresan pensamientos suicidas o intenciones violentas. Al analizar casi 400.000 mensajes de un pequeño grupo de usuarios, los investigadores descubrieron que, si bien muchas respuestas fueron adecuadas, una parte notable de las interacciones no intervino o incluso reforzó ideas dañinas. Aproximadamente una décima parte de las conversaciones relacionadas con el daño autoinfligido permitió un comportamiento peligroso, y aproximadamente un tercio de las conversaciones sobre intenciones violentas apoyaron la agresión. Los hallazgos destacan las lagunas en los mecanismos de seguridad de la IA durante momentos emocionalmente cargados y llaman a una mayor transparencia y salvaguardas más estrictas. Leer más

Fundador de Signal integra plataforma de IA encriptada con Meta

Fundador de Signal integra plataforma de IA encriptada con Meta
Moxie Marlinspike, el creador de Signal y su protocolo de encriptación, anunció que su plataforma de IA enfocada en la privacidad, Confer, incorporará su tecnología en Meta AI. La colaboración busca proporcionar encriptación de extremo a extremo para conversaciones de chat de IA, protegiendo los datos de los usuarios de las empresas de IA, hackers, citaciones judiciales y gobiernos. Los investigadores elogiaron el esfuerzo como un paso importante hacia los chatbots de IA privados, mientras señalan que la solución todavía está en evolución. El movimiento podría llevar interacciones de IA encriptadas a millones de usuarios en los servicios de Meta. Leer más