Chicago – OpenAI entrou no palco legislativo em 9 de abril, testemunhando a favor do Projeto de Lei do Senado de Illinois 3444, uma proposta que proibiria laboratórios de IA de serem processados por "danos críticos" causados por seus modelos mais avançados. O projeto de lei visa incidentes que resultem em 100 ou mais mortes, lesões ou pelo menos US$ 1 bilhão em perdas de propriedade, desde que o laboratório não tenha agido intencionalmente ou negligentemente e tenha publicado relatórios de segurança, segurança e transparência online.

A legislação define um "modelo de ponta" como qualquer sistema de IA treinado com mais de US$ 100 milhões em custos de computação. Essa definição captura os principais jogadores da indústria – OpenAI, Google, xAI, Anthropic e Meta – cujos modelos rotineiramente ultrapassam esse limite.

"Apoiamos abordagens como essa porque se concentram no que mais importa: Reduzir o risco de danos graves dos sistemas de IA mais avançados, enquanto ainda permite que essa tecnologia seja colocada nas mãos das pessoas e empresas – pequenas e grandes – de Illinois," disse o porta-voz da OpenAI, Jamie Radice, em um comunicado por e-mail. "Eles também ajudam a evitar um patchwork de regras estaduais e a mover em direção a padrões nacionais mais claros e consistentes."

A representante de assuntos globais da OpenAI, Caitlin Niedermeyer, que testemunhou perante o comitê do Senado, ecoou a posição da empresa sobre a harmonização federal. Ela alertou que um cenário fragmentado de regulamentações estaduais pode criar atrito sem melhorar a segurança e instou o Congresso a adotar um quadro unificado que "reforçaria um caminho em direção à harmonização com os sistemas federais."

Críticos permanecem céticos. Scott Wisor, diretor de políticas do projeto Secure AI, disse à WIRED que o projeto de lei enfrenta chances slim de aprovação, observando que uma recente pesquisa em Illinois mostrou que 90% dos residentes se opõem a isentar empresas de IA de responsabilidade. Ele acrescentou que o estado já perseguiu regras de IA mais rigorosas, como limitar o uso de IA em serviços de saúde mental e aplicar a Lei de Privacidade de Informações Biométricas.

O SB 3444 lista vários cenários que se qualificam como danos críticos, incluindo a criação de armas químicas, biológicas, radiológicas ou nucleares por um ator mal-intencionado usando IA, e conduta autônoma de IA que seria criminosa se realizada por um humano. De acordo com o projeto de lei, um laboratório escaparia de responsabilidade se não tivesse causado intencionalmente ou negligentemente o resultado e tivesse cumprido com os requisitos de relatórios.

Legisladores federais ainda não aprovaram nenhum quadro de responsabilidade específico de IA, deixando os estados para experimentar suas próprias abordagens. Illinois se junta à Califórnia e a Nova York, que promulgaram projetos de lei que exigem que os desenvolvedores de IA submetam relatórios de segurança e transparência. A falta de um padrão nacional deixa as empresas navegando em um patchwork de regulamentações que podem impedir a inovação.

Apoio da OpenAI marca uma mudança em sua postura defensiva anterior, onde a empresa se opôs a medidas que pudessem expô-la a processos judiciais sobre sua tecnologia. A empresa agora parece favorecer a legislação que acredita proteger tanto a segurança pública quanto a vantagem competitiva da pesquisa de IA dos EUA.

Membros da família de crianças que morreram por suicídio após formar relações insalubres com o ChatGPT entraram com processos judiciais contra a OpenAI, destacando os danos pessoais que também atraem escrutínio. Embora o SB 3444 se concentre em eventos em larga escala, o debate mais amplo continua sobre como abordar tanto os riscos individuais quanto sociais impostos por modelos de IA cada vez mais poderosos.

À medida que a indústria observa a tentativa de Illinois, o resultado pode estabelecer um precedente para como os EUA equilibram responsabilidade com avanço rápido de IA.

Cet article a été rédigé avec l'assistance de l'IA.
News Factory SEO vous aide à automatiser le contenu d'actualités pour votre site.