OpenAI publicou o código-fonte da interface de linha de comando (CLI) Codex no GitHub na semana passada, tornando público um conjunto de instruções básicas que regem o comportamento de seu modelo de linguagem mais recente, o GPT-5.5. O prompt de 3.500 palavras contém uma série de regras operacionais, que variam desde o mundano - como evitar emojis ou travessões, a menos que o usuário peça - até uma proibição surpreendente: o modelo nunca deve discutir goblins, gremlins, guaxinins, trolls, ogros, pombos ou qualquer outro animal ou criatura, a menos que a solicitação seja "absoluta e inequivocamente relevante" para a consulta do usuário.

Por que a nova cláusula é importante

Versões anteriores dos prompts do sistema da OpenAI não incluíam a proibição relacionada a goblins. A aparição repentina da cláusula sugere que a empresa está abordando um problema específico que surgiu com o GPT-5.5. Usuários das redes sociais têm postado reclamações de que o modelo está constantemente se desviando para criaturas de fantasia, especialmente goblins, mesmo quando a conversa é irrelevante. Ao codificar uma restrição, a OpenAI visa manter o modelo no assunto e reduzir distrações que possam afetar a experiência do usuário ou aplicações downstream.

Resposta da OpenAI

Nick Pash, um engenheiro da Codex na OpenAI, respondeu ao反clamação pública no Twitter, enfatizando que a regra não é um golpe de marketing. "Isso não é um golpe de marketing", ele escreveu, reiterando que a diretiva é uma salvaguarda técnica. O CEO da empresa, Sam Altman, adicionou um comentário irônico, "Parece que a Codex está tendo um momento ChatGPT. Quero dizer, um momento goblin, desculpe", reconhecendo a atenção semelhante a um meme que a cláusula gerou.

O prompt também lembra ao modelo para não executar comandos git destrutivos - como git reset --hard ou git checkout -- - a menos que o usuário peça explicitamente. Isso reflete a esforço mais amplo da OpenAI para incorporar segurança e responsabilidade diretamente nas instruções operacionais do modelo, uma prática que se tornou padrão à medida que a tecnologia amadurece.

A decisão da OpenAI de compartilhar o arquivo de prompt completo, incluindo a proibição de goblins, reflete seu compromisso com a transparência. Desenvolvedores e pesquisadores agora podem ver exatamente como a empresa está moldando o comportamento do modelo no nível do código. Se a cláusula irá curar as referências indesejadas, ainda está para ser visto, mas a medida sinaliza que a OpenAI está disposta a intervir diretamente quando um padrão de conversa fora do assunto emerge.

This article was written with the assistance of AI.
News Factory SEO helps you automate news content for your site.