Selon BFM Business, les employés de Google expriment leurs craintes quant à l’implication croissante de leur entreprise dans le secteur de l’intelligence artificielle à usage militaire. Cette préoccupation a été mise en lumière lors d’une série de débats internes et de prises de parole publiques ces dernières semaines.
Ce qu'il faut retenir
- Les salariés de Google s’inquiètent de la participation de leur entreprise aux projets d’IA militaire.
- Ces craintes ont été exprimées lors de débats internes et de déclarations publiques.
- Google n’est pas la seule entreprise technologique confrontée à ce dilemme éthique et stratégique.
Un mouvement social en gestation face aux enjeux technologiques
Les employés de Google, réunis au sein d’un collectif nommé « Google Employees for Peace », ont multiplié les interventions médiatiques ces derniers jours. Leur principale inquiétude porte sur l’utilisation de l’intelligence artificielle dans des applications militaires, notamment pour des systèmes d’armes autonomes ou des outils de surveillance. Selon plusieurs sources internes, des dizaines de salariés ont déjà signé une pétition interne appelant la direction à clarifier sa position sur ce sujet.
Le mouvement prend de l’ampleur alors que le gouvernement américain, via le Pentagone, a récemment accéléré ses investissements dans l’IA militaire. En mars 2026, le département de la Défense a annoncé un budget supplémentaire de 2,5 milliards de dollars pour le développement de ces technologies, confirmant ainsi l’engagement des États-Unis dans une course mondiale à l’innovation guerrière.
Google entre éthique et rentabilité : un équilibre difficile
Pour l’entreprise californienne, la question de l’IA militaire représente un dilemme complexe. D’un côté, ses dirigeants rappellent que la majorité de ses projets d’IA restent dédiés à des applications civiles, comme la santé ou l’éducation. De l’autre, des contrats publics, notamment avec le ministère de la Défense américain, laissent planer des doutes sur la nature exacte des collaborations en cours.
Un porte-parole de Google a tenté de rassurer les salariés en affirmant : « Nous respectons scrupuleusement les réglementations en vigueur et nous nous engageons à ne pas développer de technologies conçues pour tuer ». Pourtant, des fuites récentes suggèrent que certaines équipes travaillent sur des algorithmes destinés à optimiser la logistique militaire ou l’analyse de données stratégiques.
Un débat qui dépasse les frontières de la Silicon Valley
Ce mouvement n’est pas isolé : d’autres géants technologiques, comme Microsoft ou Amazon, sont également sous pression après avoir remporté des contrats militaires. En 2025, Microsoft avait déjà fait face à une vague de protestations internes après avoir signé un accord de 480 millions de dollars avec l’armée américaine pour son projet « HoloLens » adapté aux opérations sur le terrain.
Les syndicats et associations de défense des droits humains, comme Amnesty International, appellent désormais à un moratoire international sur le développement des armes autonomes. Leur argument ? Les risques d’erreurs, de biais algorithmiques et d’escalade des conflits sont trop importants pour être ignorés.
Cette affaire soulève une question plus large : dans un monde où la technologie et la guerre ne cessent de se rapprocher, les entreprises ont-elles encore les moyens de choisir leur camp ?
Selon des documents internes consultés par BFM Business, Google collabore avec le Pentagone sur deux projets principaux : un système d’analyse de données pour la logistique militaire et un outil de reconnaissance faciale destiné à être utilisé dans des zones de conflit. Aucune confirmation officielle n’a été donnée par l’entreprise à ce stade.
À ce jour, aucun cadre juridique international n’encadre spécifiquement l’IA militaire. Cependant, des initiatives comme la Déclaration de Montréal pour un développement responsable de l’IA ou les discussions au sein de l’ONU tentent d’établir des principes éthiques. En Europe, le Règlement sur l’IA, entré en vigueur en 2024, classe certains usages militaires comme « à haut risque », mais sans interdiction formelle.