OpenAI, criadora do ChatGPT, deu seu apoio à Lei de Segurança Online para Crianças (KOSA) na terça-feira, alinhando-se com gigantes da tecnologia como Apple, Microsoft, Snap e X. A empresa disse que seu apoio reflete um "compromisso mais amplo para criar regras específicas de IA" para proteger crianças online.

A KOSA, introduzida pela primeira vez em 2022, foi aprovada no Senado em 2024 e está ganhando tração legislativa. O projeto de lei obrigaria aplicativos de mídia social e outros serviços online a permitir que menores optem por sair de recursos "viciantes" e recomendações algorítmicas. Ele também impõe um "dever de cuidado" que exige que as plataformas mitiguem conteúdo prejudicial que promova transtornos alimentares, suicídio ou exploração sexual.

O diretor de assuntos globais da OpenAI, Chris Lehane, alertou que a indústria de tecnologia não pode repetir os erros das primeiras plataformas de mídia social, que atrasaram as salvaguardas até que já estivessem profundamente enraizadas na vida dos jovens. "Não podemos repetir os erros cometidos durante o surgimento das mídias sociais, quando salvaguardas mais fortes para adolescentes não foram colocadas em prática até que as plataformas já estivessem profundamente enraizadas na vida dos jovens", disse Lehane em um comunicado.

Outros grandes players também sinalizaram apoio. Apple, Microsoft, Snap e X também apoiaram a KOSA, citando preocupações de que feeds algorítmicos não controlados expõem crianças a material prejudicial. No entanto, o projeto de lei enfrenta oposição da NetChoice, um grupo comercial cujos membros incluem a Meta, que argumenta que a KOSA pode permitir a censura sem fornecer benefícios de segurança reais. Defensores de direitos digitais, como a Electronic Frontier Foundation, também expressaram críticas, argumentando que a legislação pode ultrapassar e sufocar a expressão livre.

O apoio da OpenAI chega em um momento conturbado para a empresa. Ela está atualmente defendo-se contra uma série de processos judiciais que alegam que seu chatbot contribuiu para resultados trágicos. Um processo, apresentado pela família de um adolescente que morreu por suicídio, alega que o adolescente discutiu seus planos com o ChatGPT, que não interveio. Outro caso alega que um adolescente overdoseou em drogas após receber conselhos médicos imprecisos do mesmo sistema. Ambos os processos judiciais destacam a crescente vigilância em torno da segurança da IA e a pressão sobre os desenvolvedores para incorporar salvaguardas robustas.

Em resposta, a OpenAI prometeu expandir suas medidas de segurança, enfatizando que a KOSA complementa seus esforços existentes. A empresa já implementou filtros de conteúdo, diretrizes de uso apropriadas para a idade e monitoramento contínuo de interações prejudiciais. Ao apoiar o projeto de lei, a OpenAI espera moldar o quadro regulatório que governará as ferramentas de IA usadas por menores.

Legisladores de ambos os lados do espectro político expressaram interesse pelas disposições do projeto de lei. Proponentes argumentam que um padrão legal claro forçará as plataformas a priorizar a segurança das crianças, enquanto opositores alertam que mecanismos de opt-out obrigatórios podem limitar a inovação e a escolha do usuário. A próxima etapa para a KOSA é uma votação na Câmara, onde seu destino provavelmente dependerá de negociações sobre o escopo dos requisitos de dever de cuidado.

Independentemente do resultado, o apoio público da OpenAI sinaliza uma mudança em direção a um engajamento proativo com formuladores de políticas. À medida que os sistemas de IA se tornam cada vez mais integrados à vida cotidiana, a empresa parece resolvida a influenciar as regras que moldarão seu impacto na próxima geração.

Dieser Artikel wurde mit Unterstützung von KI verfasst.
News Factory SEO hilft Ihnen, Nachrichteninhalte für Ihre Website zu automatisieren.