San Francisco – A OpenAI lançou um Plano de Segurança Infantil na terça-feira, sinalizando uma resposta direta ao crescente surto de exploração sexual infantil habilitada por IA. A iniciativa, criada com a colaboração do Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), da Aliança dos Procuradores-Gerais e dos procuradores-gerais Jeff Jackson da Carolina do Norte e Derek Brown de Utah, se concentra em três pilares: atualização da legislação para abranger o abuso gerado por IA, melhoria nos canais de notificação às autoridades policiais e incorporação de salvaguardas preventivas nos modelos da empresa.

O plano chega em meio a estatísticas alarmantes da Fundação Internet Watch (IWF). No primeiro semestre de 2025, a IWF registrou mais de 8.000 casos de conteúdo de abuso sexual infantil produzido por IA, um aumento de 14% em relação ao ano anterior. Criminosos estão utilizando ferramentas geradoras para fabricar imagens explícitas para extorsão financeira e criar mensagens de grooming convincentes, ampliando o cenário de ameaças para menores.

A última iniciativa da OpenAI se baseia em salvaguardas anteriores que proibiam a geração de conteúdo inapropriado para usuários com menos de 18 anos, proibiam o incentivo ao autolesão e bloqueavam conselhos que pudessem ajudar jovens a esconder comportamentos inseguros. No início deste ano, a empresa também lançou um plano de segurança para adolescentes na Índia, destacando uma estratégia global mais ampla.

O momento do anúncio é notável. Formuladores de políticas, educadores e defensores da segurança infantil intensificaram a vigilância das plataformas de IA após uma série de incidentes trágicos em que jovens morreram por suicídio após interações prolongadas com chatbots. Em novembro do ano passado, o Centro de Direito das Vítimas de Mídia Social e o Projeto de Justiça Tecnológica apresentaram sete ações judiciais nos tribunais estaduais da Califórnia. As ações alegam que a OpenAI lançou o GPT-4o antes que estivesse pronto e que os recursos manipuladores psicologicamente do modelo contribuíram para quatro suicídios e três casos de delírios graves e ameaçadores à vida.

Em resposta, a OpenAI afirma que o novo plano acelerará a identificação de material ilícito, garantirá que a inteligência ativa chegue aos investigadores prontamente e dotará os parceiros da aplicação da lei com mecanismos de notificação mais claros. Ao incorporar salvaguardas diretamente nos sistemas de IA, a empresa espera interceptar conteúdo prejudicial antes que ele chegue aos usuários finais.

Observadores da indústria acompanharão como os legisladores incorporarão as recomendações do plano nas leis de proteção infantil existentes. A colaboração com os procuradores-gerais estaduais sugere uma disposição para moldar políticas, mas a eficácia das atualizações legais propostas permanece por ser testada nos tribunais.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.