D’après RFI, la collaboration entre le Pentagone, l’armée israélienne et les géants de la tech, dont Google DeepMind, pour intégrer l’intelligence artificielle dans des applications militaires, suscite une vive opposition interne. Une mobilisation des salariés de l’entreprise britannique s’organise, reflétant les divisions croissantes au sein du secteur technologique face à l’implication des outils d’IA dans les conflits armés.

Ce qu'il faut retenir

  • Un mouvement de protestation émerge chez Google DeepMind, filiale britannique de Google spécialisée dans l’intelligence artificielle.
  • Des salariés s’opposent à l’utilisation de leurs technologies par le Pentagone et l’armée israélienne dans le cadre du conflit actuel au Moyen-Orient.
  • Cette contestation s’inscrit dans un contexte de rapprochement accru entre les grandes entreprises de la tech et les ministères de la Défense occidentaux.

Un partenariat technologique controversé entre la Silicon Valley et les armées

Depuis plusieurs mois, les liens entre les géants de la tech américaine et les institutions militaires se sont intensifiés. D’après RFI, le Pentagone collabore avec des entreprises comme Google, Microsoft ou Palantir pour développer des outils d’IA destinés à des usages stratégiques, qu’il s’agisse d’analyse de données, de reconnaissance d’images ou d’aide à la décision. Côté israélien, l’armée a également fait appel à ces technologies dans le cadre de ses opérations militaires, notamment pour le ciblage de frappes ou la surveillance de zones sensibles. Autant dire que ces partenariats soulèvent des questions éthiques majeures, aussi bien au sein des entreprises que dans la société civile.

Chez Google DeepMind, certains salariés dénoncent cette orientation, estimant que leurs travaux pourraient être détournés de leur usage initial — à savoir des applications civiles et scientifiques — pour servir des objectifs guerriers. Leur mobilisation s’ajoute à celles déjà observées chez d’autres employés de la tech, comme ceux de Google ou de Microsoft, qui ont à plusieurs reprises manifesté leur opposition à la fourniture de technologies à l’armée ou à des services de renseignement.

Des divisions internes qui reflètent un débat plus large sur l’éthique de l’IA

Comme le rapporte RFI, la contestation chez Google DeepMind prend une forme organisée, avec des pétitions internes et des discussions en cours pour définir une position collective. Certains employés ont même évoqué la possibilité de démissionner si l’entreprise ne revoit pas ses engagements avec les militaires. Ce mouvement illustre les tensions croissantes entre, d’une part, les impératifs économiques — ces partenariats représentent des contrats lucratifs — et, d’autre part, les préoccupations éthiques liées à l’utilisation de l’IA dans des contextes violents.

« Nous ne pouvons pas fermer les yeux sur le fait que nos technologies pourraient être utilisées pour causer des dommages humains », a déclaré un salarié sous couvert d’anonymat. Un autre a précisé : « Si Google DeepMind refuse de prendre position, cela reviendrait à valider indirectement ces usages. » Ces déclarations révèlent une prise de conscience collective, où la responsabilité des chercheurs et ingénieurs est désormais questionnée bien au-delà des laboratoires.

Un contexte géopolitique qui alimente les controverses

Le conflit au Moyen-Orient, qui dure depuis plusieurs années, sert de toile de fond à cette crise interne. D’après RFI, l’armée israélienne utilise déjà des outils d’IA pour des missions de surveillance et de ciblage, tandis que le Pentagone déploie des systèmes similaires en soutien à ses alliés régionaux. Ces développements surviennent alors que l’ONU et plusieurs ONG appellent à un moratoire sur l’utilisation de l’IA dans les systèmes d’armes autonomes, qualifiant cette technologie de « menace pour la stabilité internationale ».

Dans ce cadre, la position de Google DeepMind pourrait devenir un symbole. L’entreprise, connue pour ses avancées en apprentissage automatique et en santé, se retrouve au cœur d’un débat qui dépasse largement ses murs. Certains observateurs soulignent que cette mobilisation pourrait inspirer d’autres salariés du secteur, déjà engagés dans des luttes similaires contre la militarisation de leurs travaux.

Et maintenant ?

Les prochaines semaines pourraient être déterminantes pour Google DeepMind. Une réunion interne est prévue ce mois-ci pour discuter des orientations éthiques de l’entreprise, et certains salariés espèrent obtenir un engagement clair contre les partenariats militaires. Par ailleurs, le gouvernement britannique, où l’entreprise est implantée, pourrait être amené à se prononcer sur la régulation de l’IA duale — c’est-à-dire utilisable à la fois à des fins civiles et militaires. Enfin, une éventuelle médiatisation accrue du mouvement pourrait renforcer la pression sur les autres acteurs de la tech, poussant certains à revoir leurs alliances stratégiques.

Reste à voir si cette mobilisation aboutira à un changement concret ou si, au contraire, elle restera cantonnée aux cercles internes. Une chose est sûre : le débat sur l’éthique de l’IA ne fait que commencer, et il s’étend désormais bien au-delà des laboratoires.

Selon RFI, les technologies concernées incluent notamment des systèmes d’analyse de données en temps réel, des algorithmes de reconnaissance d’images pour le ciblage, ainsi que des outils d’aide à la décision pour les opérations militaires. Ces applications relèvent du domaine de l’IA dite « duale », utilisable à la fois à des fins civiles et militaires.