L’intelligence artificielle générative bouleverse les pratiques militaires en automatisant partiellement l’identification des cibles, un basculement qui interroge autant les experts en éthique qu’en droit international. Selon Le Monde, cette évolution technologique divise profondément les spécialistes, certains y voyant une avancée contrôlable, d’autres un risque de franchissement des limites de la violence légitime.
Ce qu'il faut retenir
- L’IA générative est désormais utilisée pour identifier des cibles militaires, une première dans l’histoire des conflits.
- Les débats portent sur la possibilité d’un contrôle humain effectif sur ces systèmes automatisés.
- Certains experts estiment que ces technologies repoussent les limites de la violence acceptable en warfare.
- Le cadre juridique international reste flou face à ces innovations militaires rapides.
Des algorithmes pour désigner des cibles, une première dans l’histoire militaire
Pour la première fois, des systèmes d’intelligence artificielle générative sont déployés pour analyser des données en temps réel et proposer des cibles potentielles dans des zones de conflit. Cette automatisation partielle des décisions militaires soulève des questions inédites. Comme le rapporte Le Monde, ces outils, capables de traiter des milliers de données en quelques secondes, réduisent considérablement le temps de réaction des états-majors. Pourtant, leur utilisation systématique marque un tournant : la désignation d’un objectif à neutraliser n’est plus exclusivement humaine, mais partiellement déléguée à une machine.
Les partisans de cette technologie, souvent issus des armées modernes, insistent sur sa précision accrue. « L’IA permet d’éviter les erreurs humaines liées à la fatigue ou au stress », a expliqué le général américain Mark Milley, ancien chef d’état-major interarmes, lors d’un colloque en 2025. Pour ses défenseurs, ces systèmes complètent – sans remplacer – le jugement des officiers, en filtrant les informations superflues. Une avancée, donc, selon eux, pour des frappes plus ciblées et moins de victimes collatérales.
Un contrôle humain possible, mais pas garanti selon les experts
Si certains stratèges militaires défendent l’idée d’une supervision humaine systématique, d’autres voix s’élèvent pour mettre en garde contre une illusion de contrôle. « On parle de systèmes dits « hybrides », où l’humain valide ou non une décision algorithmique, a souligné Raphaël Maurel, chercheur en droit international à l’Université de Strasbourg. Mais en pratique, la pression du temps et la complexité des données rendent ce contrôle illusoire ». Selon lui, même encadrée, l’automatisation partielle pourrait conduire à des erreurs irréversibles, notamment dans des contextes de guerre éclair ou de cyberattaques massives.
Les sceptiques pointent aussi le risque d’un « effet de seuil » : une fois les premiers systèmes déployés, leur généralisation devient inévitable. « C’est une pente glissante, a averti Noam Chomsky, linguiste et philosophe, dans une tribune publiée par Le Monde en mars 2026. Une fois que l’on accepte que des algorithmes décident de qui doit mourir, on franchit un cap éthique dont on ne mesure pas encore les conséquences ». Pour ces détracteurs, la technologie précède toujours le droit, laissant les États désarmés face à des réalités militaires qu’ils ne maîtrisent plus.
Le cadre juridique international reste à inventer
Le droit international humanitaire (DIH), pilier du jus in bello, n’a pas été conçu pour régir l’usage de l’IA en temps de guerre. Les Conventions de Genève de 1949 et leurs protocoles additionnels interdisent les attaques disproportionnées ou indiscriminées, mais leur application devient complexe face à des systèmes autonomes. Selon Le Monde, plusieurs États, dont la France et le Canada, ont commencé à travailler sur des directives encadrant ces technologies. Un projet de résolution, porté par l’ONU, est en discussion pour 2027, mais les désaccords persistent.
L’un des principaux points de blocage concerne la notion de « responsabilité ». Qui est responsable en cas d’erreur ? Le programmeur, l’officier qui valide la frappe, ou l’État qui a déployé le système ? « Le droit doit évoluer pour distinguer clairement les responsabilités, a déclaré Emmanuel Decaux, professeur de droit international à l’Université Paris 2 Panthéon-Assas. Sinon, on risque de créer des zones de non-droit où les victimes n’auront aucun recours ». Sans cadre clair, les risques de violations des droits humains augmentent, alertent les ONG comme Amnesty International.
Ce débat dépasse désormais le cadre strictement militaire : il interroge la place de l’humanité dans des conflits où la machine prend une part croissante des décisions. Tant que le droit et l’éthique n’auront pas rattrapé cette révolution technologique, les armées évolueront dans une zone grise, où chaque avancée soulève plus de questions qu’elle n’en résout.
Selon Le Monde, les États-Unis, Israël et la Chine ont déjà déployé des prototypes d’IA générative pour l’identification de cibles, tandis que la France et le Royaume-Uni testent des outils similaires en conditions réelles. Aucun pays ne reconnaît officiellement une utilisation en opération de grande envergure à ce jour.
