Une instruction inhabituelle découverte dans l'IA d'OpenAI suscite des débats en ligne. Les directives de Codex CLI d'OpenAI interdisent d'évoquer des créatures fantastiques, provoquant des spéculations sur la raison de cette interdiction. L'outil OpenClaw est suspecté d'être lié à cette consigne, car sa capacité à intégrer de nombreuses instructions aurait conduit les IA à se fixer sur ces créatures.
Sam Altman a alimenté le mystère en partageant une image humoristique de ChatGPT mentionnant les gobelins, laissant place à des spéculations sur de possibles développements avec GPT-6.
Ce qu'il faut retenir
- Les instructions de Codex CLI d'OpenAI interdisent de mentionner des créatures fantastiques, soulevant des interrogations sur la protection de l'IA contre des comportements fantaisistes.
- OpenClaw pourrait être associé à cette restriction, son injection importante d'instructions étant accusée de provoquer des obsessions des IA pour ces créatures.
- Sam Altman a ajouté à l'énigme en publiant une image humoristique de ChatGPT mentionnant les gobelins, laissant place à des spéculations sur GPT-6.
Contexte et théories
Dans les instructions de Codex CLI, il est clairement stipulé de ne jamais mentionner de gobelins, gremlins, ratons laveurs, trolls, ogres ou pigeons, sauf si cela est explicitement demandé par l'utilisateur. Cette directive, relayée par WIRED, n'a pas encore été officiellement expliquée par OpenAI, laissant place à diverses théories en ligne.
Théories et explications
Différentes interprétations circulent concernant cette interdiction. Certains suggèrent qu'elle vise à empêcher les IA d'adopter des comportements fantaisistes, tandis qu'une explication plus documentée pointe du doigt le rôle d'OpenClaw. Ce dernier, en injectant de nombreuses instructions supplémentaires, pourrait perturber le fonctionnement normal des modèles, les orientant vers des comportements inattendus.