Selon Franceinfo - Santé, l’usage croissant de l’intelligence artificielle pour résoudre des problèmes complexes pourrait altérer nos facultés intellectuelles. Une recherche récente menée par des universités américaines et britanniques révèle que le recours temporaire à des outils d’IA réduit la performance cognitive et encourage l’abandon plus rapide des tâches.

Ce qu'il faut retenir

  • Une étude conjointe du MIT, de l’Université d’Oxford et de la Carnegie Mellon a évalué l’impact de l’IA sur 1 222 participants.
  • Les personnes ayant utilisé l’IA pendant 10 minutes ont commis davantage d’erreurs en mathématiques et en compréhension écrite.
  • Elles ont également abandonné plus vite les exercices, suggérant une « paresse intellectuelle » induite par la technologie.
  • Des travaux du Prix Nobel d’économie 2024 Daron Acemoglu (février 2026) confirment ce risque d’érosion des savoirs à long terme.
  • Les chercheurs comparent cet effet à celui de la « grenouille ébouillantée » : une adaptation progressive qui masquerait un danger insidieux.

Une dégradation mesurable des performances cognitives

Dans une expérience menée par des équipes du MIT, de l’Université d’Oxford et de la Carnegie Mellon, 1 222 volontaires ont été soumis à des exercices de mathématiques et de compréhension de texte. La moitié d’entre eux pouvait s’appuyer sur des outils d’IA pour les résoudre, tandis que l’autre groupe devait se passer de toute assistance algorithmique. Résultat : les participants autorisés à utiliser l’IA ont non seulement obtenu de moins bons scores, mais ils ont aussi renoncé plus rapidement face à la difficulté, comme l’indiquent les auteurs dans leur publication.

Cette tendance s’est vérifiée dans trois échantillons distincts, ce qui renforce la crédibilité des observations. « C’est comme si la béquille numérique que représente l’IA avait réveillé une forme de paresse intellectuelle », analyse l’un des chercheurs. Les participants semblent s’habituer à externaliser leur réflexion, réduisant ainsi l’effort mental nécessaire à la résolution de problèmes.

Le paradoxe d’une technologie à double tranchant

En février 2026, le Prix Nobel d’économie 2024 Daron Acemoglu, associé à deux enseignants du MIT, a publié une étude soulignant un paradoxe préoccupant. Si l’IA permet aujourd’hui d’améliorer la qualité des décisions chez les personnes déjà formées, elle pourrait aussi, à long terme, « éroder les incitations à l’apprentissage », selon ses termes. Autrement dit, la technologie favoriserait une dépendance immédiate, au détriment de l’acquisition durable de connaissances.

Cette dynamique pourrait, à terme, conduire à un effondrement des savoirs individuels. Les chercheurs avertissent : « L’assistance algorithmique risque de fragiliser la mémoire collective et la capacité à innover, sans laquelle aucune société ne peut prospérer durablement. »

L’effet « grenouille ébouillantée » : une métaphore pour illustrer un danger progressif

Pour expliquer ce phénomène, les scientifiques reprennent la métaphore de la « grenouille ébouillantée », popularisée en gestion du changement. Une grenouille plongée dans de l’eau chauffée progressivement ne réagit pas à la montée de la température, contrairement à celle jetée dans une eau déjà bouillante. De la même manière, l’adaptation progressive à l’IA masquerait une dégradation insidieuse de nos capacités cognitives.

« Nous avons observé que l’utilisation ponctuelle de l’IA ne produit pas un déclin immédiat, mais une lente érosion de nos réflexes intellectuels », précise l’un des coauteurs de l’étude. Ce mécanisme, bien que subtil, pourrait avoir des conséquences majeures sur l’éducation et le monde professionnel d’ici quelques années.

Un appel à repenser les méthodes d’apprentissage

Face à ces constats, les chercheurs plaident pour une révision des méthodes pédagogiques à l’ère du numérique. L’enjeu n’est pas de rejeter l’IA, mais d’en encadrer l’usage pour en limiter les effets néfastes. « Il est crucial de préserver l’autonomie de la pensée critique », insiste Daron Acemoglu. Pour cela, ils recommandent de limiter le recours à l’IA dans les exercices d’apprentissage, au profit d’une réflexion personnelle approfondie.

Cette approche rejoint les conseils de figures historiques comme Jean de La Fontaine, dont la fable Le Lion et le Rat rappelle que « Patience et longueur de temps font plus que force ni que rage ». Une maxime qui, transposée au numérique, pourrait s’appliquer à la préservation de nos capacités cognitives.

Et maintenant ?

Plusieurs pistes pourraient être explorées pour limiter l’impact de l’IA sur nos facultés intellectuelles. D’abord, une régulation plus stricte de son usage dans les environnements éducatifs et professionnels pourrait être envisagée. Ensuite, des programmes de sensibilisation aux risques de dépendance algorithmique pourraient être mis en place, notamment pour les jeunes publics. Enfin, des études supplémentaires devraient être menées pour évaluer l’efficacité de ces mesures et adapter les pratiques en conséquence. La prochaine échéance ? Une conférence internationale sur l’éthique de l’IA, prévue en novembre 2026 à Paris, où ces questions devraient figurer parmi les priorités.

Selon Franceinfo - Santé, cette étude s’ajoute à un corpus croissant de recherches pointant les effets contre-productifs de certaines technologies. Elle rappelle que, comme pour toute innovation, l’IA doit être maniée avec prudence pour ne pas hypothéquer notre avenir cognitif.

Non, selon les chercheurs, son impact dépend de son usage. L’IA peut être bénéfique pour des tâches complexes ou pour des personnes déjà formées, mais son emploi répété dans des contextes simples risque de réduire l’effort mental et d’affaiblir les compétences à long terme.