Les présidents américain Donald Trump et chinois Xi Jinping pourraient inscrire à l’ordre du jour de leur prochaine rencontre, prévue les 14 et 15 mai à Pékin, la question des garde-fous à établir autour de l’intelligence artificielle (IA). Selon Courrier International, cette initiative reflète une volonté commune de limiter les risques liés à une course technologique qui échappe désormais à tout contrôle.
Ce qu'il faut retenir
- Les États-Unis et la Chine envisagent d’officialiser des discussions sur l’encadrement de l’IA lors du sommet Trump-Xi des 14 et 15 mai prochains.
- Cette démarche s’inscrit dans un contexte de montée des risques liés à l’IA, notamment en matière de cyberattaques et d’usages malveillants.
- Le modèle Mythos, capable de détecter des failles de sécurité indétectables, illustre les dangers potentiels pour les États comme pour les acteurs privés.
- Washington et Pékin avaient déjà tenté un dialogue sous l’administration Biden, sans résultats concrets, mais la situation s’est aggravée depuis.
- La Maison-Blanche, jusqu’ici favorable à une régulation minimaliste, envisage désormais la création d’un organe de contrôle des nouveaux modèles d’IA.
Une course technologique aux enjeux géopolitiques
La rivalité sino-américaine sur l’IA n’est plus seulement une question de leadership économique ou militaire. Elle représente désormais un risque systémique, comme en témoignent les alertes lancées par plusieurs observateurs ces derniers mois. Selon Courrier International, les deux puissances cherchent à éviter que leur compétition ne dégénère en une crise incontrôlable. « Les États-Unis et la Chine en quête de garde-fous pour empêcher que leur rivalité sur l’intelligence artificielle ne dégénère en crise », titrait ainsi le Wall Street Journal la semaine dernière, à quelques jours de l’arrivée de Donald Trump en Chine.
Cette prise de conscience intervient alors que les modèles d’IA deviennent de plus en plus puissants, capables de performances autrefois réservées aux États. Le modèle Mythos, développé par Anthropic, est souvent cité en exemple. Selon son créateur, il serait capable de repérer des failles de sécurité que même les experts en cybersécurité peinent à identifier. Autant dire que sa diffusion, même restreinte, pourrait offrir à des acteurs mal intentionnés — États ou groupes criminels — un outil redoutable.
Un dialogue en demi-teinte, mais une volonté affichée
Les tentatives de dialogue entre Washington et Pékin sur l’IA ne sont pas nouvelles. Sous la présidence de Joe Biden, des discussions avaient été engagées, mais elles n’avaient abouti qu’à peu de résultats concrets. Depuis, la situation s’est dégradée. Les risques liés à l’IA se sont multipliés, allant des cyberattaques aux deepfakes en passant par l’automatisation des décisions stratégiques. « Le gouvernement de Biden avait entamé un dialogue avec la Chine, mais ses résultats s’étaient avérés limités, et depuis les risques se sont accrus », rappelle le Wall Street Journal.
Pourtant, l’administration Trump semble désormais prête à jouer un rôle plus actif. Comme l’a révélé le Wall Street Journal le 4 mai, la Maison-Blanche envisage la création d’un organe de contrôle dédié à l’évaluation des nouveaux modèles d’IA avant leur mise sur le marché. Une approche radicalement différente de la position précédente, marquée par un certain laisser-faire. En parallèle, le ministère américain du Commerce a signé des accords avec des géants comme Google DeepMind, Microsoft et xAI, afin d’examiner en amont les versions bêta de leurs innovations.
L’IA, un « ennemi commun » pour Pékin et Washington ?
Dans une tribune publiée par le New York Times, le journaliste Thomas Friedman a appelé à la création de mécanismes de régulation communs, comparant la situation actuelle à celle des années 1970, lorsque les États-Unis et la Chine s’étaient rapprochés pour contrer l’Union soviétique. « La Chine et les États-Unis ont un ennemi commun — et ce n’est pas l’Union soviétique », a-t-il écrit, soulignant que les deux pays partageaient désormais une préoccupation majeure : éviter que l’IA ne devienne une menace incontrôlable. Une analyse qui résonne particulièrement à l’heure où les tensions technologiques entre les deux superpuissances s’intensifient.
Pourtant, les obstacles restent nombreux. Pékin s’est souvent montré réticent à utiliser les lignes de communication directes existantes, comme celle dédiée aux questions de défense. Une méfiance qui pourrait compliquer la mise en place d’un cadre de dialogue spécifique à l’IA. Les observateurs évoquent ainsi la possibilité d’une ligne dédiée, à l’image de celle déjà en place pour les sujets militaires, mais son efficacité reste à prouver.
Plus largement, cette initiative sino-américaine interroge sur l’avenir de la gouvernance mondiale de l’IA. Faut-il attendre une coopération entre les deux rivaux pour espérer un encadrement efficace ? Ou, au contraire, leur rivalité va-t-elle accélérer la militarisation de l’IA, transformant chaque avancée en une arme potentielle ? Les prochains mois devraient apporter des éléments de réponse, à condition que les deux pays parviennent à dépasser leurs divergences stratégiques.
Le modèle Mythos, développé par Anthropic, est un système d’IA capable de détecter des failles de sécurité informatique que même les experts humains ou les outils traditionnels ne parviennent pas à identifier. Selon son créateur, il pourrait ainsi offrir à des acteurs malveillants — qu’il s’agisse d’États, de groupes criminels ou de hackers indépendants — un moyen de pirater des infrastructures critiques, des banques ou des réseaux gouvernementaux. Sa puissance réside dans sa capacité à analyser des milliers de lignes de code en un temps record, repérant des vulnérabilités que personne n’avait remarquées. C’est cette capacité qui en fait une arme potentielle, d’où les craintes exprimées par les autorités américaines et chinoises.
Les deux pays partagent une préoccupation commune : éviter que l’IA ne devienne une menace incontrôlable, susceptible de déclencher une crise géopolitique ou des conflits armés. Si leurs relations sont marquées par une rivalité économique et technologique, les risques systémiques associés à l’IA — cyberattaques, deepfakes, automatisation des décisions stratégiques — les poussent à chercher des mécanismes de régulation. Comme le souligne Thomas Friedman dans le New York Times, l’IA est devenue pour eux un « ennemi commun », au même titre que l’Union soviétique l’était pour Washington et Pékin dans les années 1970. Une coopération, même limitée, permettrait de limiter les dégâts en cas de dérapage.