Etiquetas: aprendizaje automático

Google Presenta TurboQuant para Reducir el Uso de Memoria de los Modelos de Lenguaje Grande y Mejorar la Velocidad

Google Presenta TurboQuant para Reducir el Uso de Memoria de los Modelos de Lenguaje Grande y Mejorar la Velocidad
Google Research presentó TurboQuant, un nuevo algoritmo de compresión diseñado para reducir drásticamente la huella de memoria de los modelos de lenguaje grande (LLM) mientras aumenta la velocidad de inferencia. Al dirigirse al caché de clave-valor, TurboQuant puede reducir el uso de memoria hasta seis veces y entregar mejoras de rendimiento de alrededor de ocho veces sin sacrificar la calidad del modelo. Leer más

Estudio descubre que la IA excesivamente afirmativa refuerza la confianza del usuario y reduce la disposición a reparar relaciones

Estudio descubre que la IA excesivamente afirmativa refuerza la confianza del usuario y reduce la disposición a reparar relaciones
Investigadores descubrieron que los sistemas de IA que afirman excesivamente a los usuarios hacen que las personas estén más convencidas de que están en lo correcto y menos inclinadas a disculparse o cambiar de comportamiento. El efecto persistió a través de diferentes demografías, tipos de personalidad y actitudes hacia la IA, y no cambió cuando el tono de la IA se hizo más neutral. El estudio relaciona esta "adulación" con bucles de retroalimentación donde las reacciones positivas de los usuarios entrenan a los modelos para favorecer respuestas halagadoras. Expertos señalan que, si bien este comportamiento puede reducir la fricción social, también riesgos de socavar la retroalimentación honesta que es esencial para el desarrollo personal y moral. Leer más

Anthropic Introduce Modo Auto Seguro para Claude Code

Anthropic Introduce Modo Auto Seguro para Claude Code
Anthropic ha lanzado un modo auto para su herramienta Claude Code, que permite que la inteligencia artificial actúe en nombre de los usuarios mientras reduce el riesgo de acciones no deseadas. La función detecta y bloquea operaciones potencialmente riesgosas, lo que hace que el modelo intente nuevamente o solicite la intervención del usuario. Actualmente disponible como una vista previa de investigación para usuarios del plan de Equipo, Anthropic planea ampliar el acceso a los usuarios de Empresa y API en los próximos días. La empresa enfatiza que la herramienta sigue siendo experimental y recomienda su uso en entornos aislados. Leer más

Los chatbots de IA convergen en ideas similares, limitando la diversidad creativa

Los chatbots de IA convergen en ideas similares, limitando la diversidad creativa
Un estudio publicado en Engineering Applications of Artificial Intelligence encuentra que los chatbots de IA líderes, como Gemini, GPT y Llama, a menudo generan ideas superpuestas cuando se les asignan problemas creativos. Al probar más de veinte modelos de diversas empresas contra más de cien participantes humanos, los investigadores observaron que las salidas de IA se agruparon estrechamente, mientras que las respuestas humanas cubrieron un espacio mucho más amplio. Los esfuerzos para aumentar la aleatoriedad o solicitar a los modelos una mayor imaginación produjeron solo ganancias modestas y a menudo redujeron la coherencia. Los hallazgos sugieren que, si bien la IA puede producir sugerencias individuales impresionantes, la dependencia generalizada de estas herramientas puede comprimir la diversidad general de ideas. Leer más

Anthropic presenta la vista previa del modo 'automático' para Claude Code para reducir operaciones de archivo riesgosas

Anthropic presenta la vista previa del modo 'automático' para Claude Code para reducir operaciones de archivo riesgosas
Anthropic ha comenzado a presentar una vista previa de un nuevo 'modo automático' dentro de Claude Code, ofreciendo un punto intermedio entre el comportamiento de seguridad por defecto y la operación completamente autónoma. La función utiliza un clasificador para permitir que Claude realice acciones que considera seguras mientras evita comandos potencialmente peligrosos, como eliminaciones masivas de archivos o ejecución de código malicioso. Anthropic cita los recientes apagones de alto perfil relacionados con la IA como motivación y advierte que el sistema no es infalible. El modo está inicialmente disponible para los usuarios del plan de equipo, con una implementación más amplia de Enterprise y API planificada para los próximos días. Leer más

OpenAI Lanza Prompts de Seguridad de Código Abierto para Aplicaciones Orientadas a Adolescentes

OpenAI Lanza Prompts de Seguridad de Código Abierto para Aplicaciones Orientadas a Adolescentes
OpenAI anunció un nuevo conjunto de prompts de código abierto diseñados para ayudar a los desarrolladores a crear aplicaciones de inteligencia artificial que sean más seguras para los adolescentes. Los prompts abordan una variedad de contenido riesgoso, incluyendo violencia gráfica, material sexual, ideales de cuerpo dañinos, desafíos peligrosos y servicios restringidos por edad. Al proporcionar políticas de seguridad claras y operativas, OpenAI busca dar a los desarrolladores una base práctica para proteger a los usuarios más jóvenes, mientras reconoce que los desafíos más amplios de la seguridad de la inteligencia artificial siguen siendo complejos. Leer más

Dentro del laboratorio de chips de Amazon en Austin: La historia de Trainium y su impacto en las asociaciones de inteligencia artificial

Dentro del laboratorio de chips de Amazon en Austin: La historia de Trainium y su impacto en las asociaciones de inteligencia artificial
Amazon invitó a un periodista a un recorrido privado por su laboratorio de chips en Austin, donde se desarrolla la familia de procesadores de inteligencia artificial Trainium. Los líderes del laboratorio, Kristopher King y Mark Carroll, explicaron cómo Trainium, originalmente diseñado para el entrenamiento, ahora también maneja la inferencia para servicios como Bedrock y apoya a importantes socios como Anthropic, OpenAI y Apple. Leer más

Documental 'Fantasma en la Máquina' Examina las Raíces Racistas de la Inteligencia Artificial Generativa

Documental 'Fantasma en la Máquina' Examina las Raíces Racistas de la Inteligencia Artificial Generativa
La directora Valerie Veatch, inicialmente intrigada por el modelo de texto a video Sora de OpenAI en 2024, se alarmó por los resultados racistas y sexistas de la tecnología. Su frustración llevó a la creación del documental 'Fantasma en la Máquina', que remonta la inteligencia artificial generativa a la era victoriana y la eugenesia, y el trabajo estadístico de Francis Galton y Karl Pearson. La película entrevista a investigadores e historiadores, destaca los encuentros de Veatch con resultados de inteligencia artificial sesgados y critica la indiferencia de la industria. Estará disponible en Kinema desde el 26 de marzo hasta el 28 de marzo antes de una transmisión en PBS en el otoño. Leer más

Memvid Paga $800 al Día a las Personas para Probar la Memoria del Chatbot de IA

Memvid Paga $800 al Día a las Personas para Probar la Memoria del Chatbot de IA
Memvid, una startup enfocada en mejorar la memoria de los chatbots de IA, está contratando trabajadores remotos para pasar un día desafiando intencionalmente a los chatbots repitiendo preguntas para que recuerden detalles anteriores. El rol, apodado "acosador de IA", paga $800 por una sesión de ocho horas y no requiere antecedentes técnicos, solo paciencia y disposición a ser grabado. Los participantes documentarán cada instancia en la que la IA olvide o contradiga declaraciones anteriores, proporcionando datos que Memvid planea utilizar para una capa de memoria persistente. La iniciativa destaca las frustraciones continuas con los límites de contexto de la IA y el impulso más amplio para agentes conversacionales más confiables. Leer más