Etiquetas: CAISI

Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse

Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse
Líderes de la industria y académicos advierten que sin normas claras, las pruebas de seguridad de la IA podrían convertirse en una herramienta política. Microsoft, el Instituto Nacional de Estándares y Tecnología (NIST) y la Iniciativa de Seguridad de la IA (CAISI) planean desarrollar métodos de prueba sobre la marcha, pero los críticos argumentan que solo un sistema de auditoría independiente puede prevenir el exceso de poder gubernamental y garantizar la rendición de cuentas. El profesor de la Universidad de Cornell, Gregory Falco, propone un régimen de auditoría rigurosamente aplicado similar al de la IRS, instando a las empresas a adoptar controles de seguridad internos antes de la implementación. Leer más

Google, Microsoft y xAI acuerdan dar al gobierno de EE. UU. acceso temprano a modelos de IA

Google, Microsoft y xAI acuerdan dar al gobierno de EE. UU. acceso temprano a modelos de IA
Google, Microsoft y xAI han firmado acuerdos que permiten al Centro de Estándares e Innovación de IA del Departamento de Comercio evaluar sus sistemas de inteligencia artificial de próxima generación antes de que se lancen públicamente. Los acuerdos, anunciados un día después de que se informó que la administración Trump estaba considerando una supervisión más estricta de la IA, establecen que las empresas proporcionarán modelos con salvaguardias reducidas o deshabilitadas para que los analistas federales puedan investigar los riesgos para la seguridad nacional. Leer más