Tags: CAISI

Especialistas Pedem Auditorias Independentes à Medida que Padrões de Segurança de IA Permanecem Indefinidos

Especialistas Pedem Auditorias Independentes à Medida que Padrões de Segurança de IA Permanecem Indefinidos
Líderes da indústria e acadêmicos alertam que, sem padrões claros, os testes de segurança de IA podem se tornar uma ferramenta política. A Microsoft, o Instituto Nacional de Padrões e Tecnologia (NIST) e a Iniciativa de Segurança de IA (CAISI) planejam desenvolver métodos de teste de forma improvisada, mas críticos argumentam que apenas um sistema de auditoria independente pode prevenir a interferência governamental e garantir a responsabilidade. O professor Gregory Falco, da Universidade Cornell, propõe um regime de auditoria rigorosamente aplicado, semelhante ao da Receita Federal, instando as empresas a adotarem verificações de segurança internas antes do lançamento. Ler mais

Google, Microsoft e xAI Concordam em Dar ao Governo dos EUA Acesso Antecipado a Modelos de IA

Google, Microsoft e xAI Concordam em Dar ao Governo dos EUA Acesso Antecipado a Modelos de IA
Google, Microsoft e xAI, de Elon Musk, assinaram acordos que permitem ao Centro de Padrões e Inovação em IA do Departamento de Comércio avaliar seus sistemas de inteligência artificial de próxima geração antes de serem lançados publicamente. Os acordos, anunciados um dia após relatos de que a administração Trump estava considerando uma supervisão mais rigorosa da IA, estabelecem que as empresas forneçam modelos com salvaguardas reduzidas ou desabilitadas para que analistas federais possam investigar riscos de segurança nacional. O diretor do CAISI, Chris Fall, disse que as colaborações expandirão a capacidade do governo de medir a IA de fronteira e proteger os interesses dos EUA. Ler mais