Plus de 16 millions d'interactions frauduleuses avec Claude, le modèle de langage développé par Anthropic, ont été conduites par environ 24 000 comptes frauduleux, selon les accusations portées par l'entreprise américaine contre les sociétés chinoises DeepSeek, Moonshot AI et MiniMax. Ces interactions auraient été utilisées pour développer des modèles IA concurrents par distillation, une technique qui consiste à interroger massivement un modèle propriétaire pour collecter des paires entrée-sortie et entraîner un modèle « élève » moins coûteux qui imite fidèlement le comportement du modèle « professeur » original.

Ces accusations ont été rendues publiques le 23 février 2026 à travers une série de tweets publiés sur X par Anthropic. L'entreprise américaine dénonce ainsi les acteurs en cause, et non le principe de la distillation, qui peut être tout à fait légitime pour créer des modèles plus petits et moins coûteux à partir de modèles performants. Cependant, Anthropic souligne que des laboratoires étrangers qui détournent illicitement des modèles américains peuvent supprimer les garde-fous, intégrant ainsi les capacités de ces modèles dans leurs propres systèmes militaires, de renseignement et de surveillance.

Les accusations portées contre les entreprises chinoises

Anthropic accuse spécifiquement DeepSeek d'avoir engagé plus de 150 000 échanges pour extraire des capacités de raisonnement de Claude, et d'avoir utilisé le grand modèle de langage américain comme modèle de référence pour l'apprentissage par renforcement. Moonshot AI aurait mené plus de 3,4 millions d'échanges, se focalisant davantage sur le raisonnement agentique, l'usage d'outils, le codage, l'analyse de données, les agents informatiques et la vision par ordinateur. MiniMax, avec plus de 13 millions d'échanges, aurait fait du codage agentique, de l'usage d'outils et de l'orchestration, ses priorités de recherche.

Ces accusations surviennent quelques jours après celles d'un autre géant américain, OpenAI, et font partie des tensions technologiques et commerciales sino-américaines. Anthropic rappelle par ailleurs défendre fermement les restrictions américaines sur les technologies IA pour conserver un avantage stratégique sur la Chine.

Les mesures prises par Anthropic pour prévenir les distillations futures

Pour prévenir les distillations futures par ces acteurs chinois, Anthropic a annoncé déployer des détecteurs de schémas d'attaques, qui seront partagés avec d'autres laboratoires IA et les autorités. L'entreprise renforce également les contrôles d'accès, notamment la vérification des comptes éducatifs et startups, et développe des contre-mesures au niveau produit, API et modèle pour réduire l'impact de ces attaques par distillation.

Comme le souligne Anthropic, « des laboratoires étrangers qui détournent illicitement des modèles américains peuvent supprimer les garde-fous, intégrant ainsi les capacités de ces modèles dans leurs propres systèmes militaires, de renseignement et de surveillance. » Cela met en évidence l'importance de la protection des technologies IA et des mesures de sécurité pour prévenir leur détournement.

Les implications de ces accusations

Ces accusations ont des implications significatives pour l'industrie de l'IA et les relations sino-américaines. Elles soulignent la nécessité d'une coopération internationale pour réguler les technologies IA et prévenir leur détournement. Anthropic affirme que ces attaques par distillation « en violation de nos conditions d'utilisation et restrictions d'accès régionales » mettent en danger la sécurité et la confidentialité des données.

Les réactions des entreprises chinoises accusées et des autorités compétentes sont attendues. Il est probable que cette affaire aura des conséquences importantes pour l'industrie de l'IA et les relations internationales.

Comme le déclare Anthropic, « nous prenons ces allégations très au sérieux et nous travaillons étroitement avec les autorités compétentes pour enquêter sur ces allégations et prendre les mesures nécessaires pour protéger nos technologies et nos clients. »

Conclusion

Les accusations portées par Anthropic contre les entreprises chinoises DeepSeek, Moonshot AI et MiniMax sont graves et soulignent la nécessité d'une coopération internationale pour réguler les technologies IA et prévenir leur détournement. Les mesures prises par Anthropic pour prévenir les distillations futures sont un pas dans la bonne direction, mais il est clair que davantage doit être fait pour protéger les technologies IA et les données sensibles.

Les prochaines étapes dans cette affaire seront cruciales pour déterminer les conséquences de ces accusations et les mesures qui seront prises pour prévenir de telles attaques à l'avenir. Les réactions des entreprises chinoises accusées et des autorités compétentes sont attendues avec intérêt.