Un tribunal américain a rejeté la demande d'Anthropic, société américaine d'intelligence artificielle (IA), visant à contester son étiquetage comme risque pour la chaîne d'approvisionnement, selon Euronews FR. Cette décision fait suite au refus d'Anthropic d'accorder un accès illimité à son chatbot Claude au gouvernement américain, soulevant un débat sur la régulation de l'IA.
Ce qu'il faut retenir
- Anthropic a signé un contrat de 200 millions de dollars avec le Pentagone en 2025
- Le tribunal de Washington a rejeté l'appel d'Anthropic contre le label de risque
- L'administration Trump avait ordonné l'arrêt de l'utilisation de l'assistant d'IA Claude d'Anthropic
Débat sur la régulation de l'IA
L'administration Trump a qualifié Anthropic de risque pour la chaîne d'approvisionnement, entraînant des restrictions sur l'utilisation de l'IA de l'entreprise par les sous-traitants du Pentagone. Ces restrictions incluent l'interdiction d'utilisation de Claude pour des armes autonomes létales et la surveillance de masse des Américains.
Contentieux judiciaire
En réaction, Anthropic avait déposé des recours à San Francisco et Washington, accusant l'administration Trump de représailles illégales. Le Département de la Défense avait exprimé des inquiétudes quant à la possibilité pour Anthropic de désactiver sa technologie en cas de conflit armé.
Malgré ce revers à Washington, Anthropic reste convaincue que la justice finira par reconnaître l'illégalité de ces désignations en matière de chaîne d'approvisionnement.
