Un tribunal américain a rejeté la demande d'Anthropic, société américaine d'intelligence artificielle (IA), visant à contester son étiquetage comme risque pour la chaîne d'approvisionnement, selon Euronews FR. Cette décision fait suite au refus d'Anthropic d'accorder un accès illimité à son chatbot Claude au gouvernement américain, soulevant un débat sur la régulation de l'IA.

Ce qu'il faut retenir

  • Anthropic a signé un contrat de 200 millions de dollars avec le Pentagone en 2025
  • Le tribunal de Washington a rejeté l'appel d'Anthropic contre le label de risque
  • L'administration Trump avait ordonné l'arrêt de l'utilisation de l'assistant d'IA Claude d'Anthropic

Débat sur la régulation de l'IA

L'administration Trump a qualifié Anthropic de risque pour la chaîne d'approvisionnement, entraînant des restrictions sur l'utilisation de l'IA de l'entreprise par les sous-traitants du Pentagone. Ces restrictions incluent l'interdiction d'utilisation de Claude pour des armes autonomes létales et la surveillance de masse des Américains.

Contentieux judiciaire

En réaction, Anthropic avait déposé des recours à San Francisco et Washington, accusant l'administration Trump de représailles illégales. Le Département de la Défense avait exprimé des inquiétudes quant à la possibilité pour Anthropic de désactiver sa technologie en cas de conflit armé.

Et maintenant ?

La cour d'appel de Washington doit entendre de nouveaux éléments en mai. La décision finale sur la légalité de l'étiquetage d'Anthropic reste en suspens.

Malgré ce revers à Washington, Anthropic reste convaincue que la justice finira par reconnaître l'illégalité de ces désignations en matière de chaîne d'approvisionnement.