Le 3 mars, un groupe d’experts gouvernementaux s’est réuni sous l'égide de la Convention des Nations unies sur certaines armes classiques (CCAC) pour discuter de la régulation des systèmes d’armes létales autonomes. Ces réunions, initiées par la France en 2014 pour traiter de l'autonomie des armes robotisées, sont devenues un forum majeur sur l'intelligence artificielle (IA) militaire.
Ce qu'il faut retenir
- Le groupe d'experts de la CCAC vise à établir une liste d'éléments pour une gouvernance internationale des armes autonomes d'ici fin 2026.
- Les Etats-Unis, traditionnellement réservés à un traité contraignant sur les armes autonomes, ont cependant promu des mesures renforçant le respect du droit international et l'usage responsable de l'IA militaire.
- En 2020, les Etats-Unis ont élaboré des principes éthiques pour le développement de l'IA militaire, servant de base à l'OTAN en 2021.
Contexte et Enjeux
L'enjeu de cette réunion était crucial, avec l'objectif de poser les bases d'une gouvernance internationale sur les armes autonomes d'ici la fin de l'année. Les grandes puissances, particulièrement les Etats-Unis, ont montré des réticences à des régulations contraignantes, préférant promouvoir un usage responsable de l'IA militaire.
Rôle des Etats-Unis
Les Etats-Unis, bien qu'ayant historiquement des réserves sur un traité contraignant, ont joué un rôle précurseur en établissant des directives nationales dès 2012. Leur implication dans l'éthique de l'IA militaire a influencé les décisions prises par l'OTAN en la matière.
Positionnement des Acteurs
Les débats à la CCAC ont mis en lumière les divergences entre les pays quant à la régulation des armes autonomes. Si les Etats-Unis ont défendu une approche basée sur la responsabilité, d'autres nations ont plaidé pour des accords contraignants pour limiter l'autonomie des armes.
