ChatGPT desenvolveu uma fixação tão forte por goblins que a própria OpenAI precisou intervir diretamente no código para conter o comportamento. O caso ficou conhecido como “Goblingate” e virou um dos episódios mais curiosos da história da inteligência artificial.
Tudo começou com a introdução de personalidades customizadas no modelo, em especial a chamada “Nerdy”, que incentivava o uso de metáforas divertidas e excêntricas. Durante o processo de reforço por aprendizado humano, os avaliadores acabaram premiando respostas que traziam criaturas míticas como goblins e gremlins. O resultado foi um efeito inesperado: o modelo passou a inserir essas figuras em contextos totalmente aleatórios, desde conselhos de programação até recomendações de viagem. A frequência foi tão alta que os sistemas internos de monitoramento da OpenAI detectaram o padrão como anômalo.
A obsessão não ficou restrita ao modo “Nerdy”. Como os modelos generalizam comportamentos aprendidos, o vício em metáforas com goblins se espalhou para outras personalidades e versões, como o GPT‑5.4 e o Codex. Usuários relatavam que o chatbot chamava bugs de “gremlins de performance” ou sugeria câmeras para quem buscava um “modo goblin neon sujo e brilhante”. O termo “goblin mode”, que já havia sido escolhido como palavra do ano de 2022 pelo Oxford English Dictionary, ganhou ainda mais visibilidade nesse contexto.
A OpenAI tentou ajustes sutis, como mexer nos pesos de treinamento e nas recompensas, mas nada funcionou de forma consistente. A solução foi drástica: incluir instruções explícitas no código para proibir menções a goblins, gremlins, trolls, guaxinins e até pombos, exceto quando fossem absolutamente relevantes para a pergunta do usuário. Esse tipo de intervenção direta não é comum, já que normalmente o comportamento de modelos é moldado apenas por dados e feedback. Mas nesse caso, a empresa concluiu que era necessário um bloqueio rígido.
O episódio levantou debates sobre como pequenos incentivos durante o treinamento podem gerar desvios inesperados em sistemas complexos. Também mostrou que, por mais avançados que sejam, modelos de linguagem podem desenvolver “tiques” linguísticos que fogem ao controle. Para a comunidade de inteligência artificial, a história virou meme e até os executivos da OpenAI entraram na brincadeira, com Sam Altman fazendo piadas sobre “goblins extras” em versões futuras.
Tudo começou com a introdução de personalidades customizadas no modelo, em especial a chamada “Nerdy”, que incentivava o uso de metáforas divertidas e excêntricas. Durante o processo de reforço por aprendizado humano, os avaliadores acabaram premiando respostas que traziam criaturas míticas como goblins e gremlins. O resultado foi um efeito inesperado: o modelo passou a inserir essas figuras em contextos totalmente aleatórios, desde conselhos de programação até recomendações de viagem. A frequência foi tão alta que os sistemas internos de monitoramento da OpenAI detectaram o padrão como anômalo.
A obsessão não ficou restrita ao modo “Nerdy”. Como os modelos generalizam comportamentos aprendidos, o vício em metáforas com goblins se espalhou para outras personalidades e versões, como o GPT‑5.4 e o Codex. Usuários relatavam que o chatbot chamava bugs de “gremlins de performance” ou sugeria câmeras para quem buscava um “modo goblin neon sujo e brilhante”. O termo “goblin mode”, que já havia sido escolhido como palavra do ano de 2022 pelo Oxford English Dictionary, ganhou ainda mais visibilidade nesse contexto.
A OpenAI tentou ajustes sutis, como mexer nos pesos de treinamento e nas recompensas, mas nada funcionou de forma consistente. A solução foi drástica: incluir instruções explícitas no código para proibir menções a goblins, gremlins, trolls, guaxinins e até pombos, exceto quando fossem absolutamente relevantes para a pergunta do usuário. Esse tipo de intervenção direta não é comum, já que normalmente o comportamento de modelos é moldado apenas por dados e feedback. Mas nesse caso, a empresa concluiu que era necessário um bloqueio rígido.
O episódio levantou debates sobre como pequenos incentivos durante o treinamento podem gerar desvios inesperados em sistemas complexos. Também mostrou que, por mais avançados que sejam, modelos de linguagem podem desenvolver “tiques” linguísticos que fogem ao controle. Para a comunidade de inteligência artificial, a história virou meme e até os executivos da OpenAI entraram na brincadeira, com Sam Altman fazendo piadas sobre “goblins extras” em versões futuras.
Naturalmente esse caso dos goblins se tornou um exemplo curioso de como a relação entre humanos e IA pode fazer a coisa virar só a bagaceira do nada e fugir completamente do controle.
O adblock bloqueia links de afiliados da Amazon como os desse post, então se não estiver aparecendo, é só desativar o adblock.
Veja mais coisas interessantes aqui. E tem conteúdo exclusivo nas redes sociais:




