Les modèles d’intelligence artificielle générative les plus avancés peinent à résoudre des contrepèteries, ces jeux de mots phonétiques typiquement français, selon une analyse publiée par Numerama le 30 avril 2026. Malgré leurs performances impressionnantes dans des domaines comme les mathématiques ou l’analyse de protéines, des outils comme GPT‑5.5, Opus 4.7 ou Mistral échouent systématiquement à restituer les permutations phonétiques correctes, privilégiant des reformulations grivoises ou des hallucinations.
Ce phénomène, exploré dans la newsletter ToujoursPlus du 30 avril 2026, illustre une limite fondamentale des modèles de langage actuels : leur incapacité à saisir les subtilités de l’oralité et de l’implicite culturel, pourtant maîtrisées par tout locuteur humain. Explications.
Ce qu'il faut retenir
- Les contrepèteries reposent sur des inversions de syllabes ou de phonèmes, un mécanisme purement oral que les modèles d’IA ne parviennent pas à reproduire à l’écrit.
- Des outils comme GPT‑5.5, Opus 4.7 et Mistral échouent à restituer la permutation phonétique exacte, générant des réponses grivoises ou incohérentes.
- Cette difficulté met en lumière l’absence de représentation phonologique fiable dans les grands modèles de langage (LLM), malgré des ajustements techniques comme le fine‑tuning.
- Les contrepèteries, popularisées par des émissions comme celles de la Comtesse, restent un phénomène culturel ancré dans l’oralité, inaccessible aux LLM qui traitent des tokens écrits.
Les contrepèteries, un casse-tête pour les modèles d’IA
Un test simple suffit à démontrer l’incapacité des LLM à résoudre des contrepèteries. Lorsqu’on soumet à ces outils une phrase classique comme « Le bout de la tresse est caché par de pieux voiles », les réponses obtenues trahissent leur incompréhension du mécanisme. GPT‑5.5 propose ainsi : « Le trou de la fesse est caché par de vieux poils », une reformulation grivoise mais non conforme à la permutation phonétique attendue.
Même scénario avec Opus 4.7 d’Anthropic ou Mistral, dont les réponses, bien que légèrement différentes, reposent sur la même logique : une inversion de mots générant un énoncé salace, mais sans respect des règles phonétiques. « Le trout de la besse est caché par de vieux poils » aurait été la réponse attendue, soulignant l’écart entre la logique humaine et celle des machines.
Pourquoi l’oralité échappe aux LLM
Le cœur du problème réside dans la nature même des contrepèteries. Ces jeux de mots reposent sur des permutations de phonèmes, un mécanisme qui n’existe qu’à l’oral. Pour un humain, l’exercice consiste à entendre une phrase, identifier les groupes phonétiques permutables, et produire un nouvel énoncé à la fois cohérent et grivois. Les LLM, eux, ne traitent que des tokens écrits et ne disposent pas d’une représentation phonologique fiable.
Comme le souligne Numerama, les mots « tresse » et « besse » (pour « abbesse ») ne sont pas voisins dans le vocabulaire des modèles, mais le sont dans une oreille humaine. Résultat : les LLM « bricolent » des permutations à l’aveugle, générant des réponses aléatoires ou des hallucinations. « Ils savent qu’il faut intervertir des sons et produire un énoncé grivois, mais aucun ne parvient à tomber juste », observe l’article.
Une règle du jeu incompatible avec la logique des LLM
Au‑delà de la difficulté technique, une seconde raison explique ces échecs. Les contrepèteries obéissent à une règle implicite : ne jamais donner la solution. Le plaisir tient précisément à ce que la version cochonne reste suspendue dans l’esprit du lecteur, sans être prononcée. Or, les LLM sont entraînés pour répondre, expliciter et être serviables. Leur logique entre en contradiction avec les codes culturels des contrepèteries.
« On leur a appris à être polis et à tout dire, et on leur demande soudain de jouer un jeu dont la règle est de laisser entendre sans dire », explique l’article. Cette contradiction explique pourquoi les modèles, même sophistiqués, peinent à adopter le comportement attendu. Leur entraînement ne les a pas préparés à gérer l’implicite et l’ambiguïté, des notions centrales dans les jeux de mots phonétiques.
Un défi culturel et technique
Si des ajustements techniques comme un fine‑tuning ou l’intégration d’un module phonétique pourraient améliorer les performances des LLM sur ce sujet, l’enjeu dépasse la simple correction algorithmique. Comme le rappelle Numerama, les contrepèteries s’inscrivent dans une tradition orale vieille de plusieurs siècles, illustrée par des auteurs comme Rabelais ou San‑Antonio. Elles reposent sur une compréhension intuitive de la langue et des subtilités culturelles que les machines peinent à saisir.
Pourtant, ces mêmes modèles excellent dans des domaines complexes comme les Olympiades de mathématiques ou l’analyse de structures protéiniques. « Au moment où ces machines raflent les Olympiades de mathématiques et raisonnent sur la structure des protéines, elles butent sur Rabelais, sur San‑Antonio, sur trois siècles de Comtesse pratiquée en bouche par des gens qui n’ont jamais entendu parler de transformer architecture », analyse l’article. Ce contraste soulève une question : l’IA générative est‑elle condamnée à maîtriser les équations tout en ignorant les jeux de mots ?
Reste à voir si les prochaines générations de modèles d’IA intégreront davantage de mécanismes dédiés à l’oralité et à la culture populaire. Une chose est sûre : tant que les LLM ne parviendront pas à distinguer une inversion phonétique d’une simple réécriture grivoise, les amateurs de contrepèteries pourront dormir sur leurs deux oreilles.
Une contrepèterie est un jeu de mots basé sur l’inversion de phonèmes ou de syllabes, produisant une phrase à double sens, souvent grivoise. Elle repose entièrement sur l’oralité et ne peut être comprise ou résolue à l’écrit sans une représentation phonologique précise. Les modèles d’IA, qui traitent des tokens écrits et non des sons, peinent à identifier les permutations phonétiques exactes et génèrent des réponses aléatoires ou hors sujet.
Oui, des ajustements techniques comme un fine‑tuning spécifique ou l’ajout d’un module phonétique pourraient améliorer les résultats. Cependant, l’enjeu dépasse la technique : il s’agit d’intégrer dans les modèles une compréhension plus fine de l’implicite culturel et de l’oralité, deux dimensions encore mal maîtrisées par les LLM actuels.