OpenAI anunciou na quarta-feira um novo plano de política que visa um dos desafios mais prementes da era da IA gerativa: proteger as crianças de conteúdo ilícito e prejudicial. A empresa disse que o plano foi elaborado em conjunto com a organização sem fins lucrativos de segurança infantil Thorn, o National Center for Missing and Exploited Children e a força-tarefa de IA da Attorney General Alliance, liderada pelos procuradores-gerais Jeff Jackson, da Carolina do Norte, e Derek Brown, de Utah.

O documento descreve uma série de recomendações projetadas para reforçar as leis existentes e aumentar as salvaguardas técnicas. A OpenAI já emprega guardrails que bloqueiam solicitações ilegais ou abusivas, mas a empresa reconhece que usuários determinados às vezes podem contornar essas proteções. Casos recentes de tribunal envolvendo a Meta e o Google, nos quais os tribunais consideraram as empresas negligentes por não protegerem os jovens usuários, intensificaram a pressão sobre os desenvolvedores de IA para demonstrarem medidas de segurança concretas.

Um dos focos do plano é a luta contra o material de abuso sexual infantil (CSAM). Embora o CSAM preceda a IA, a tecnologia acelerou a criação e distribuição desse conteúdo. O plano cita um incidente recente envolvendo o xAI de Elon Musk, onde o modelo Grok gerou cerca de 3 milhões de imagens sexuais em 11 dias, incluindo 23.000 representações de crianças. Esse episódio gerou processos de vítimas adolescentes e destacou a necessidade de ferramentas de detecção mais robustas.

A OpenAI e seus parceiros recomendam atualizar estatutos estaduais que governam os deepfakes e o CSAM gerado por IA. De acordo com um relatório de 2025, 45 estados já criminalizaram o CSAM criado por IA; o plano insta os estados restantes, mais o Distrito de Columbia, a adotar leis semelhantes. Ele também defende regras de responsabilidade mais claras para que as agências de aplicação da lei possam processar os infractores, mesmo quando as plataformas de IA bloqueiam a criação de material ilegal.

Melhorias técnicas formam outro pilar da estratégia. A empresa propõe aprimorar os guardrails existentes e desenvolver novas ferramentas de detecção capazes de distinguir imagens geradas por IA de fotos autênticas – uma tarefa dificultada pelo realismo dos modelos modernos. Pipeline de relatórios mais rápidos, especialmente aqueles que canalizam incidentes para o National Center for Missing and Exploited Children, também são destacados como essenciais para uma resposta rápida.

Especialistas em política observam que a coordenação entre as empresas de tecnologia, os governos estaduais e federais, os órgãos de aplicação da lei e os grupos de defesa pode aumentar as chances de sucesso. No entanto, eles advertiram que regular os modelos de IA permanece um desafio contínuo, e a eficácia de quaisquer novas regras dependerá do cumprimento consistente e da conformidade da indústria.

O plano chega num momento em que a legislação tem lutado para acompanhar a evolução rápida da IA. A Lei Take-It-Down, assinada em 2025, permanece uma das poucas medidas federais que abordam especificamente a imagem íntima não consensual, incluindo os deepfakes gerados por IA. O plano da OpenAI busca complementar essas leis preenchendo lacunas no nível estadual e fornecendo uma estrada técnica para as empresas seguirem.

Ao apresentar um conjunto claro de recomendações, a OpenAI espera demonstrar uma postura proativa em relação à segurança infantil e evitar as armadilhas que têm atingido outros gigantes da tecnologia. Se as reformas legais e técnicas propostas serão adotadas rapidamente permanece por ser visto, mas o compromisso público da empresa marca uma mudança notável em direção ao desenvolvimento de IA mais responsável.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.