Le Pentagone a pris une décision inédite en désignant Anthropic, une entreprise américaine d'intelligence artificielle, comme un risque pour la chaîne d'approvisionnement des États-Unis. Cette mesure intervient après un désaccord majeur où Anthropic a refusé un accès illimité à Claude au Department of War, pour éviter son utilisation dans des armes autonomes ou la surveillance de masse.

Contrairement à Anthropic, le rival chinois DeepSeek n'a pas été visé par de telles restrictions, créant ainsi un paradoxe stratégique qui pourrait favoriser les fournisseurs chinois et décourager l'innovation américaine.

Ce qu'il faut retenir

  • Anthropic classé comme risque pour la chaîne d'approvisionnement américaine
  • Refus d'accès à Claude pour usage militaire
  • DeepSeek chinois non soumis aux mêmes restrictions

Divergence entre Anthropic et le Department of War

L'annonce du Pentagone qualifiant Anthropic de risque pour la chaîne d'approvisionnement a des implications majeures. Alors que l'entreprise a souligné que cette désignation était limitée et visait à protéger l'État, elle a refusé l'accès à Claude pour des applications militaires, déclenchant ainsi la réaction immédiate de Donald Trump ordonnant l'arrêt de l'utilisation de la technologie d'Anthropic par les agences fédérales.

Avantage concurrentiel chinois

Le traitement différencié entre Anthropic et DeepSeek soulève des inquiétudes quant à l'avantage concurrentiel des entreprises chinoises. Alors que le Pentagone reconnaît la supériorité des modèles d'Anthropic, la montée en puissance de DeepSeek aux États-Unis pourrait créer un déséquilibre en faveur des fournisseurs chinois, comme le souligne l'analyste Cole McFaul du Center for Security and Emerging Technology.

Et maintenant ?

Les prochaines étapes pourraient inclure une réévaluation des politiques de sécurité et d'innovation pour maintenir la compétitivité américaine dans le domaine de l'intelligence artificielle.