OpenAI publicou o código-fonte da interface de linha de comando (CLI) Codex no GitHub na semana passada, tornando público um conjunto de instruções básicas que regem o comportamento de seu modelo de linguagem mais recente, o GPT-5.5. O prompt de 3.500 palavras contém uma série de regras operacionais, que variam desde o mundano - como evitar emojis ou travessões, a menos que o usuário peça - até uma proibição surpreendente: o modelo nunca deve discutir goblins, gremlins, guaxinins, trolls, ogros, pombos ou qualquer outro animal ou criatura, a menos que a solicitação seja "absoluta e inequivocamente relevante" para a consulta do usuário.
Por que a nova cláusula é importante
Versões anteriores dos prompts do sistema da OpenAI não incluíam a proibição relacionada a goblins. A aparição repentina da cláusula sugere que a empresa está abordando um problema específico que surgiu com o GPT-5.5. Usuários das redes sociais têm postado reclamações de que o modelo está constantemente se desviando para criaturas de fantasia, especialmente goblins, mesmo quando a conversa é irrelevante. Ao codificar uma restrição, a OpenAI visa manter o modelo no assunto e reduzir distrações que possam afetar a experiência do usuário ou aplicações downstream.
Resposta da OpenAI
Nick Pash, um engenheiro da Codex na OpenAI, respondeu ao反clamação pública no Twitter, enfatizando que a regra não é um golpe de marketing. "Isso não é um golpe de marketing", ele escreveu, reiterando que a diretiva é uma salvaguarda técnica. O CEO da empresa, Sam Altman, adicionou um comentário irônico, "Parece que a Codex está tendo um momento ChatGPT. Quero dizer, um momento goblin, desculpe", reconhecendo a atenção semelhante a um meme que a cláusula gerou.
O prompt também lembra ao modelo para não executar comandos git destrutivos - como git reset --hard ou git checkout -- - a menos que o usuário peça explicitamente. Isso reflete a esforço mais amplo da OpenAI para incorporar segurança e responsabilidade diretamente nas instruções operacionais do modelo, uma prática que se tornou padrão à medida que a tecnologia amadurece.
A decisão da OpenAI de compartilhar o arquivo de prompt completo, incluindo a proibição de goblins, reflete seu compromisso com a transparência. Desenvolvedores e pesquisadores agora podem ver exatamente como a empresa está moldando o comportamento do modelo no nível do código. Se a cláusula irá curar as referências indesejadas, ainda está para ser visto, mas a medida sinaliza que a OpenAI está disposta a intervir diretamente quando um padrão de conversa fora do assunto emerge.
Este artículo fue escrito con la asistencia de IA.
News Factory SEO te ayuda a automatizar contenido de noticias para tu sitio.