Dans un rapport publié ce vendredi 8 mai 2026, le Fonds monétaire international (FMI) met en garde contre les dangers que fait peser l’intelligence artificielle (IA) sur la stabilité du système financier mondial. Selon Journal du Coin, l’institution internationale souligne que l’essor rapide des technologies d’IA pourrait « introduire de nouvelles vulnérabilités » dans les marchés financiers, avec des répercussions potentiellement incontrôlables.
Ce qu'il faut retenir
- Le FMI craint que l’IA ne fragilise la stabilité financière en raison de son adoption massive et non régulée.
- L’institution évoque des risques liés à l’automatisation des décisions d’investissement et à la concentration des algorithmes entre quelques acteurs dominants.
- Un scénario de « cyberattaques ciblant des systèmes financiers dopés à l’IA » est identifié comme une menace majeure.
- Le rapport appelle à une régulation internationale urgente pour encadrer ces nouvelles technologies.
Des vulnérabilités systémiques sous-estimées
Le FMI ne mâche pas ses mots dans son analyse. Dans un document intitulé *« L’IA et la stabilité financière : un défi systémique »*, l’institution indique que l’intégration de l’IA dans les processus décisionnels financiers – des algorithmes de trading aux systèmes de scoring crédit – expose les marchés à des risques de « feedback loops » incontrôlables. Autrement dit, des boucles de rétroaction où les décisions automatisées pourraient s’amplifier mutuellement, provoquant des mouvements de marché brutaux. « L’IA pourrait amplifier les chocs plutôt que les absorber », explique un haut responsable du FMI, cité par Journal du Coin.
Le rapport souligne également que l’IA favorise une concentration accrue des acteurs dominants. Aujourd’hui, quelques géants technologiques contrôlent la majorité des modèles d’IA utilisés par les institutions financières. Cette centralisation, si elle n’est pas régulée, pourrait créer des « points de défaillance uniques », où la panne ou la manipulation d’un seul algorithme aurait des conséquences en cascade. Le FMI cite en exemple le cas de BlackRock, dont les algorithmes de gestion pilotée représentent déjà près de 10 000 milliards de dollars d’actifs sous gestion dans le monde.
Des scénarios de crise envisagés
Parmi les risques identifiés, le FMI détaille trois scénarios particulièrement préoccupants. Le premier concerne l’« emballement algorithmique » : des systèmes d’IA prenant des décisions d’investissement en temps réel pourraient, en cas de dysfonctionnement, générer des ordres de vente ou d’achat massifs en quelques millisecondes, provoquant des krachs éclair. Le second scénario évoque des « cyberattaques ciblant des infrastructures financières dopées à l’IA », avec des pirates exploitant les failles des systèmes automatisés pour manipuler les marchés. Enfin, le troisième scénario – et non le moindre – porte sur la « dépendance excessive » des régulateurs eux-mêmes à ces outils, qui pourraient biaiser leurs analyses ou retarder leurs interventions en cas de crise.
Pour étayer ses craintes, le FMI s’appuie sur des données récentes. Selon une étude interne, 42 % des grandes banques centrales et institutions financières utilisent déjà des modèles d’IA pour leurs analyses de risque, un chiffre qui pourrait atteindre 70 % d’ici 2028. « Nous sommes en train de construire un système où la vitesse et l’opacité des décisions échappent à tout contrôle humain », a déclaré Kristalina Georgieva, directrice générale du FMI, lors d’une conférence de presse à Washington.
Cette mise en garde du FMI intervient alors que les marchés financiers célèbrent déjà les performances exceptionnelles des fonds d’investissement intégrant l’IA. En 2025, les fonds utilisant ces technologies ont surperformé leurs concurrents traditionnels de près de 8 % en moyenne, selon les données de Morningstar. Une performance qui pourrait bien se retourner contre eux si les risques systémiques venaient à se matérialiser.
Parmi les pistes prioritaires, le FMI propose l’obligation pour les institutions financières de déclarer les algorithmes utilisés, d’instaurer des audits indépendants des modèles d’IA, et de créer des protocoles d’urgence pour désactiver ces systèmes en cas de défaillance. Une première ébauche de ces règles pourrait être discutée lors de la réunion du G20 en octobre 2026.