L’intelligence artificielle générale (AGI) pourrait voir le jour dès 2030, mais pas en suivant la voie tracée par les grands modèles de langage (LLM) actuels, selon Demis Hassabis, fondateur de Google DeepMind et lauréat du prix Nobel de chimie. Dans un entretien accordé au podcast Y Combinator, publié le 4 mai 2026 par Futura Sciences, il a exposé les limites structurelles des LLM et plaidé pour une approche hybride mêlant apprentissage par renforcement, world models et mémoire structurée.
Ce qu'il faut retenir
- L’AGI est envisagée vers 2030 par Demis Hassabis, mais elle nécessitera une architecture bien plus complexe que les LLM actuels.
- Trois verrous majeurs bloquent encore l’avancée : l’apprentissage continu, le raisonnement à long terme et la gestion de la mémoire.
- Les LLM échouent à reproduire des raisonnements scientifiques fondamentaux, comme la théorie de la relativité d’Einstein, même avec des données limitées dans le temps.
- Hassabis cite AlphaFold comme exemple d’IA spécialisée fonctionnant comme un world model, mais insuffisante seule pour atteindre l’AGI.
- Une solution hybride, combinant plusieurs types d’IA, serait nécessaire pour surmonter ces obstacles.
- Yann LeCun, avec sa société AMI Labs, développe une approche similaire basée sur les world models.
Une AGI réaliste dans quatre ans, mais pas avec les LLM
Demis Hassabis, interrogé par Y Combinator, a réaffirmé sa conviction : l’AGI sera une réalité d’ici 2030. Pourtant, cette prédiction s’accompagne d’une mise en garde claire. Selon lui, les fondations d’une intelligence artificielle générale existent déjà, mais leur achèvement se heurte à des obstacles techniques majeurs. Les grands modèles de langage (LLM) ne suffiront pas, malgré leur popularité actuelle. Hassabis souligne que la course actuelle aux LLM est une impasse si elle n’intègre pas des modèles spécialisés et des architectures hybrides.
L’objectif n’est pas d’améliorer la prédiction de séquences textuelles, mais de doter les systèmes d’une capacité à raisonner sur des observations physiques contradictoires. Les LLM actuels, limités aux descriptions textuelles, ne modélisent pas le monde réel. Par exemple, ils savent que les objets tombent, mais ignorent la notion de gravité. Pour Hassabis, cette lacune est rédhibitoire : « Tant que ces cap ne seront pas franchis, ces IA n’auront pas la capacité d’inventer. »
Trois verrous techniques à lever pour l’AGI
Hassabis a identifié trois obstacles majeurs à l’émergence d’une AGI. Le premier concerne l’apprentissage continu. Les modèles actuels peinent à intégrer de nouvelles connaissances sans réapprentissage complet, un processus coûteux et inefficace. Le second verrou est le raisonnement à long terme. Les LLM fonctionnent par à-coups : un même modèle peut exceller en mathématiques avancées, puis échouer sur une simple opération arithmétique si la formulation change. Hassabis illustre ce phénomène avec Gemini aux échecs : le modèle revient sur un mauvais coup sans trouver d’alternative, illustrant une incapacité à gérer des situations ambiguës.
Enfin, la gestion de la mémoire pose un problème structurel. Les LLM accumulent des informations sans discernement, mélangeant données pertinentes et erreurs. Cette architecture engendre un gâchis de ressources et une inefficacité notable. Pour surmonter ces défis, Hassabis propose une approche combinée, où chaque composant traite une partie spécifique du problème, orchestré par un système plus général.
Les limites des LLM mises en lumière par des expériences clés
Pour appuyer ses propos, Hassabis s’appuie sur des expériences concrètes. L’une d’elles consiste à entraîner un modèle avec des données limitées à 1901, puis à lui demander de redécouvrir, sans aide externe, la théorie de la relativité restreinte d’Einstein (1905). Résultat : aucun LLM n’y parvient. Ce test souligne l’incapacité des systèmes actuels à générer des hypothèses ou théories nouvelles, pourtant essentielles pour définir une AGI. Hassabis précise : « Ce cap est essentiel. Tant qu’il ne sera pas franchi, ces IA ne pourront pas inventer. »
Ces échecs rappellent ceux d’un autre projet, Talkie, une IA bloquée en 1930 dont les chercheurs ont testé les limites. Comme pour l’expérience d’Einstein, les résultats montrent que les modèles actuels dépendent étroitement de leur corpus d’entraînement, sans capacité d’abstraction ou de généralisation.
AlphaFold et les world models : des pistes pour l’AGI
Parmi les rares exemples de systèmes s’approchant d’une AGI, Hassabis cite AlphaFold, développé par DeepMind. Ce modèle, spécialisé dans la prédiction de structures protéiques, fonctionne comme un world model : il ne se contente pas de traiter des données, mais simule des interactions biologiques complexes. AlphaFold 3, dont la sortie est prévue d’ici dix ans, vise même à modéliser le comportement cellulaire de manière dynamique. Pour Hassabis, ces avancées prouvent qu’une AGI est envisageable, à condition de combiner plusieurs types d’IA.
Cette vision rejoint celle de Yann LeCun, cofondateur de DeepMind et figure majeure de l’IA. Ce dernier développe désormais, via sa société AMI Labs basée à Paris, des world models capables de modéliser le monde réel à travers des équations mathématiques. Contrairement aux LLM, ces modèles simulent des situations inédites et transfèrent des connaissances entre domaines — une capacité indispensable pour l’AGI. AMI Labs a d’ailleurs levé près d’un milliard d’euros pour concrétiser ce projet.
Une feuille de route pour les géants de l’IA
Le message de Hassabis s’adresse directement aux acteurs du secteur, comme OpenAI ou Anthropic, qui misent tout sur les LLM. Selon lui, ces entreprises risquent de rencontrer un plafond de verre si elles ne diversifient pas leurs approches. Il recommande une stratégie hybride : des IA spécialisées dans des domaines précis (comme AlphaFold), couplées à des modèles généraux pour l’orchestration. « L’avenir de l’IA n’est pas un seul gros cerveau, mais une constellation de systèmes experts », a-t-il déclaré lors de l’interview.
Cette approche, bien que plus complexe à mettre en œuvre, présente l’avantage de résoudre les problèmes de mémoire, de raisonnement et d’apprentissage continu. Elle permettrait également de contourner les biais des LLM, souvent critiqués pour leurs erreurs factuelles et leur manque de fiabilité dans des contextes nouveaux.
Pour l’heure, la balle est dans le camp des chercheurs et des ingénieurs. Comme le rappelle Hassabis, l’AGI ne sera pas le fruit d’un seul modèle, mais d’une collaboration entre systèmes spécialisés et modèles généraux. Une révolution technologique, mais aussi organisationnelle, se profile à l’horizon.