L'administration Trump a récemment demandé à Anthropic, une entreprise américaine spécialisée dans l'intelligence artificielle (IA), de permettre au Pentagone d'utiliser sans contraintes son modèle d'IA appelé Claude, selon nos confrères de Le Monde. Cette demande a été faite dans le but de renforcer la sécurité nationale des États-Unis. Cependant, Dario Amodei, le dirigeant d'Anthropic, a refusé de lever les garde-fous inclus dans sa solution, notamment en ce qui concerne la surveillance de masse aux États-Unis et les armes entièrement autonomes.

Ce qu'il faut retenir

  • L'administration Trump a demandé à Anthropic d'utiliser son modèle d'IA sans contraintes pour renforcer la sécurité nationale.
  • Dario Amodei, le dirigeant d'Anthropic, a refusé de lever les garde-fous inclus dans sa solution.
  • Les garde-fous concernent la surveillance de masse aux États-Unis et les armes entièrement autonomes.

Contexte et enjeux

Anthropic a travaillé de manière proactive pour déployer ses modèles au sein du département de la guerre et de la communauté du renseignement, comme le souligne Dario Amodei. L'entreprise a été la première à déployer ses modèles dans les réseaux classifiés du gouvernement des États-Unis et dans les laboratoires nationaux. Le modèle Claude est déjà largement utilisé au sein du département de la guerre et d'autres agences de sécurité nationale pour des applications critiques telles que l'analyse du renseignement, la modélisation et la simulation, la planification opérationnelle, les cyberopérations, etc.

Dario Amodei a déclaré : « Je crois profondément en l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis et d'autres démocraties, et pour vaincre nos adversaires autocratiques. » Cependant, il a également précisé que « Dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques. »

Position d'Anthropic

La position d'Anthropic sur l'utilisation de son modèle d'IA sans contraintes est claire. L'entreprise est prête à travailler avec le gouvernement américain pour renforcer la sécurité nationale, mais elle refuse de compromettre ses valeurs et ses principes éthiques. Dario Amodei a affirmé que l'entreprise est « profondément engagée à utiliser l'IA pour le bien de l'humanité » et qu'elle « prend très au sérieux » les risques potentiels liés à l'utilisation de l'IA.

Et maintenant ?

La décision d'Anthropic de refuser l'utilisation de son modèle d'IA sans contraintes pourrait avoir des implications importantes pour la sécurité nationale des États-Unis. Il reste à voir comment l'administration Trump réagira à cette décision et si elle trouvera des alternatives pour répondre à ses besoins en matière de sécurité. Les prochaines étapes dans ce dossier pourraient être cruciales pour déterminer l'avenir de l'utilisation de l'IA dans la sécurité nationale.

En conclusion, la demande de l'administration Trump à Anthropic d'utiliser son modèle d'IA sans contraintes a été refusée par l'entreprise, qui met en avant ses principes éthiques et ses valeurs. Cette décision pourrait avoir des implications importantes pour la sécurité nationale des États-Unis et soulève des questions sur l'avenir de l'utilisation de l'IA dans ce domaine.