Le 3 mars 2026, OpenAI et Google ont tous deux levé le voile sur de nouveaux modèles d'IA. Tandis que ChatGPT adopte GPT-5.3 Instant comme nouveau modèle par défaut, Google répond avec Gemini 3.1 Flash-Lite, un modèle pensé pour être plus rapide et moins coûteux.
Ce qu'il faut retenir
- OpenAI lance GPT-5.3 Instant comme nouveau modèle par défaut pour ChatGPT et l'API.
- GPT-5.3 Instant réduit les hallucinations dans les domaines à forts enjeux.
- Google réplique avec Gemini 3.1 Flash-Lite, un modèle le plus rapide et le plus économique de la série Gemini 3.
Le nouveau modèle par défaut sur ChatGPT est là : OpenAI a dévoilé, le 3 mars 2026, GPT-5.3 Instant, censé fournir « des conversations plus fluides et plus utiles au quotidien ». Celui-ci vient remplacer GPT-5.2 Instant dans ChatGPT et dans l'API (sous le nom gpt-5.3-chat-latest). L'ancien modèle restera disponible quelques mois dans la section « modèles hérités » avant d'être retiré.
Concrètement, GPT-5.3 se dote de plusieurs changements qui concernent avant tout la « personnalité » du chatbot. Tandis que GPT-5.2 pouvait refuser de répondre à certaines questions « auxquelles il devrait pouvoir répondre en toute sécurité », ou adopter un ton « trop prudent ou moralisateur », son successeur se débarrasse de ces caractéristiques.
Cela passe d'abord par moins de refus, mais aussi par la suppression des préambules moralisateurs avant de répondre à une question. En clair, le chatbot devrait aller plus directement à l'essentiel, sans multiplier les mises en garde. Autre bonne nouvelle : ChatGPT devrait devenir moins « cringe ». GPT-5.2 pouvait en effet commencer certaines réponses par des phrases bateau visant à rassurer l'utilisateur, comme « Stop. Respirez un grand coup. ». La mise à jour du modèle vient corriger ce style conversationnel afin de rendre les réponses plus ciblées et de réduire les déclarations superflues.
GPT-5.2 pouvait commencer certaines réponses par des phrases bateau // Source : OpenAI
Par rapport aux versions précédentes, GPT-5.3 réduit aussi les hallucinations. Sur des domaines à forts enjeux — santé, droit ou finance — celles-ci baissent d'environ 26,8 % lorsque le modèle utilise le web et de 19,7 % lorsqu'il s'appuie uniquement sur ses connaissances internes. Dans les conversations signalées par les utilisateurs eux-mêmes, la baisse atteint 22,5 % avec le web et 9,6 % sans accès en ligne.
Plus globalement, GPT-5.3 améliore la manière dont ChatGPT exploite les informations issues du web. Le modèle est censé mieux équilibrer ce qu'il trouve en ligne avec ses propres connaissances et son raisonnement. L'objectif : contextualiser l'actualité plutôt que de produire un simple résumé de pages web — et proposer des réponses davantage structurées et argumentées. OpenAI affirme également que le modèle devient un « meilleur partenaire d'écriture ».
GPT-5.3 Instant est disponible dès aujourd'hui pour tous les utilisateurs sur ChatGPT, ainsi que pour les développeurs via l'API sous l'identifiant gpt-5.3-chat-latest. Le reste de la famille, à savoir les mises à jour des modèles Thinking et Pro, devrait suivre prochainement, indique le communiqué. GPT-5.2 Instant restera disponible pendant trois mois pour les utilisateurs payants dans le menu déroulant « Anciens modèles », avant d'être retiré le 3 juin 2026.
Google, bien décidé à accélérer la cadence dans la course à l'IA — l'entreprise ayant récemment lancé Gemini 3.1 Pro — n'est pas restée les bras croisés. Le même jour, Google a dévoilé Gemini 3.1 Flash-Lite, présenté comme le modèle le plus rapide et le plus économique de la série Gemini 3.
Dans un message publié sur X, Sundar Pichai indique que Gemini 3.1 Flash-Lite surpasse Gemini 2.5 Flash avec un temps de première réponse 2,5 fois plus rapide et une vitesse de génération 45 % plus élevée, « pour une fraction du coût des modèles plus grands ».
Le modèle est pensé pour « les charges de travail importantes des développeurs à grande échelle », en sacrifiant un peu de puissance brute par rapport aux modèles Pro. Il vise les cas d'utilisation où les appels sont nombreux et relativement simples, et où le coût par requête compte autant que la qualité.
Concrètement, celui-ci affiche un prix de 0,25 dollar par million de jetons d'entrée et 1,50 dollar par million de jetons de sortie, détaille Google dans son billet de blog. De quoi offrir « des performances améliorées à un prix bien inférieur à celui des modèles plus complexes », selon l'entreprise.
Gemini 3.1 Flash-Lite se place par ailleurs très bien dans Arena.ai, avec un score Elo de 1432. Sur GPQA Diamond, un benchmark de questions-réponses scientifiques conçu pour tester le raisonnement de haut niveau, il obtient 86,9 %, contre 82,8 % pour Gemini 2.5 Flash et 66,7 % pour Gemini 2.5 Flash-Lite. Sur MMMU Pro, un benchmark multimodal mesurant la compréhension et le raisonnement, le modèle atteint 76,8 %, contre 66,7 % pour Gemini 2.5 Flash et 51 % pour Gemini 2.5 Flash-Lite. GPT-5 Mini, lui, se situe à 74,1 %.
Sur GPQA Diamond, il obtient 86,9 % // Source : Google
Gemini 3.1 Flash-Lite propose également plusieurs niveaux de « réflexion » configurables dans AI Studio et Vertex AI. Cela permet de l'utiliser aussi bien pour des tâches massives et peu coûteuses — comme la traduction de gros volumes de texte ou la modération — que pour des charges plus complexes nécessitant davantage de raisonnement, comme la génération d'interfaces ou de tableaux de bord.
Le modèle est pour l'instant accessible aux développeurs via l'API Gemini dans Google AI Studio, ainsi qu'aux entreprises et clients cloud via Vertex AI sur Google Cloud.
En attendant, les utilisateurs de ChatGPT et les développeurs peuvent déjà bénéficier de GPT-5.3 Instant et Gemini 3.1 Flash-Lite. Les premiers retours et les résultats des tests devraient être intéressants à suivre.
Les deux modèles visent à améliorer les conversations et les tâches d'IA, en réduisant les hallucinations et en offrant des performances améliorées.
