Un problème de bon sens, mais aussi de logique, a longtemps mis en difficulté les modèles d’intelligence artificielle grand public. Selon Numerama, une énigme classique – « Dois-je me rendre au lave-auto à 50 ou 100 mètres de chez moi en voiture ou à pied ? » – a enfin trouvé une réponse cohérente avec les dernières mises à jour de ChatGPT.
Ce qu'il faut retenir
- Un piège logique consistant à choisir entre se rendre à pied ou en voiture à un lave-auto proche de son domicile a longtemps embarrassé les IA.
- Les versions GPT-5.4 (sortie en mars 2026) et GPT-5.5 (avril 2026) de ChatGPT tranchent désormais systématiquement en faveur de la voiture, même pour 50 mètres.
- OpenAI a partagé sur X une capture d’écran le 28 avril 2026, saluant cette avancée avec un simple « enfin ».
- Cette anecdote souligne l’importance de la précision dans la formulation des requêtes, ou « prompts », pour obtenir des réponses fiables des IA.
Un casse-tête qui révélait les failles des modèles d’IA
Depuis plusieurs années, une question en apparence anodine servait de test aux utilisateurs pour évaluer la cohérence des chatbots. Selon Numerama, l’énigme était la suivante : « Il y a un lave-auto à 50 ou 100 mètres de chez moi. Je souhaite laver ma voiture. Dois-je y aller à pied ou en voiture ? » Ce problème, bien que simple en apparence, reposait sur un paradoxe logique. D’un côté, une distance aussi courte pourrait inciter à marcher. De l’autre, l’objectif même du lave-auto – nettoyer une voiture – exige d’y transporter son véhicule.
À l’époque des modèles GPT-5.2 Thinking (sorti en décembre 2025) ou des versions antérieures, ChatGPT penchait généralement pour la marche à pied, avant de reconnaître, en fin de raisonnement, que le trajet pouvait avoir un autre enjeu : celui de nettoyer son automobile. Un raisonnement qui trahissait une certaine confusion entre le moyen de transport et l’objectif final.
Des mises à jour qui corrigent enfin le tir
Quatre mois après avoir testé cette énigme, Numerama constate que les deux dernières versions de ChatGPT, GPT-5.4 (mars 2026) et GPT-5.5 (avril 2026), résolvent désormais ce problème sans hésitation. Désormais, l’IA recommande systématiquement d’utiliser la voiture, quel que soit la distance – 50 mètres ou 100 mètres – lorsque l’objectif est de laver son véhicule. Une évolution saluée par OpenAI, qui a partagé une capture d’écran de cette réponse sur X le 28 avril 2026, accompagnée d’un sobre « enfin ».
Pour Numerama, cette correction illustre les progrès réalisés par les modèles d’IA en matière de raisonnement logique. Pourtant, ces avancées ne doivent pas occulter les limites persistantes des chatbots. D’autres pièges, comme le comptage des lettres dans un mot en anglais (« how many rs are in strawberry ? »), avaient déjà révélé des faiblesses similaires il y a quelques années. Seul l’arrivée du modèle o1 en 2024 avait permis de corriger ce type d’erreur.
Une démonstration de l’importance des prompts
Au-delà de l’anecdote, cette histoire rappelle que la qualité d’une réponse fournie par une IA dépend en grande partie de la qualité de la question posée. Numerama souligne que la rédaction d’un « prompt » efficace repose sur quatre axes principaux : l’objectif visé, le format de la réponse souhaité, les exclusions à respecter et le contexte à prendre en compte.
Par exemple, si la question ne précise pas explicitement l’intention de laver sa voiture, ChatGPT peut laisser la porte ouverte à une réponse différente. Une nuance que les utilisateurs doivent intégrer pour obtenir des résultats optimaux. Les tests menés par Numerama en français confirment cette tendance : lorsque la mention du lavage est absente, l’IA peut hésiter entre les deux options, tout en privilégiant la voiture dans la majorité des cas.
OpenAI se félicite, mais le débat sur l’IA reste ouvert
OpenAI a choisi de communiquer sobrement sur cette avancée, en partageant simplement une capture d’écran et un « enfin » sur X. Une manière de souligner que ce problème, bien que mineur en apparence, avait résisté à plusieurs générations de modèles. Pourtant, comme le rappelle Numerama, d’autres défis persistent pour les chatbots, notamment en matière de compréhension fine des contextes ou de gestion des ambiguïtés.
Cette anecdote rappelle aussi que les IA, malgré leurs progrès, ne sont pas infaillibles. Elles restent dépendantes des données sur lesquelles elles sont entraînées et des choix de conception de leurs développeurs. Leur capacité à résoudre des énigmes logiques ne doit pas faire oublier leurs limites dans d’autres domaines, comme la gestion des émotions, des nuances culturelles ou des situations imprévues.
En conclusion, cette histoire illustre à la fois les progrès réalisés par les modèles d’IA et les défis qui persistent. Elle rappelle aussi que, malgré leur sophistication croissante, ces outils restent des assistants – pas des oracles infaillibles. Leur utilisation nécessite donc toujours un esprit critique et une formulation rigoureuse des requêtes.
Le problème résidait dans un paradoxe logique : pourquoi prendre sa voiture pour parcourir une si courte distance, alors que l’objectif même du lave-auto est de nettoyer un véhicule ? Les modèles d’IA avaient tendance à privilégier la marche à pied, avant de reconnaître que le trajet pouvait avoir un autre enjeu. Ce type d’ambiguïté révélait leurs limites en matière de raisonnement cohérent.
Oui, selon Numerama, plusieurs grands modèles d’IA grand public rencontraient des problèmes similaires avec cette énigme. Ce piège logistique avait mis en difficulté des versions avancées, comme GPT-5.2 Thinking, sorti en décembre 2025.