OpenAI et Google : près de mille ingénieurs s’opposent à l’usage militaire de l’IA

Chez OpenAI comme chez Google, un mouvement rare traverse les équipes d’ingénieurs. Plusieurs centaines de salariés ont signé une lettre commune pour empêcher l’usage militaire de leurs propres technologies. Derrière ce geste, l’affaire dépasse la simple contestation interne, et traduit un affrontement entre l’éthique de l’intelligence artificielle et les ambitions stratégiques des États.

Stephanie Haerts
By Stéphanie Haerts Last modified on 5 mars 2026 17h14
OpenAI et Google : près de mille ingénieurs s’opposent à l’usage militaire de l’IA
OpenAI et Google : près de mille ingénieurs s’opposent à l’usage militaire de l’IA - © Economie Matin

Une lettre ouverte signée par des salariés de Google et d’OpenAI a été rendue publique, révélant une opposition interne croissante à l’utilisation de leurs modèles d’intelligence artificielle dans des programmes militaires. Le texte, qui rassemble plusieurs centaines d’ingénieurs et chercheurs liés à OpenAI et à Google, appelle leurs directions à fixer des limites strictes à l’usage militaire de l’IA, notamment face aux demandes du Pentagone. Cette mobilisation, rare dans l’histoire de la Silicon Valley, relance un débat fondamental sur le rôle d’OpenAI et des géants technologiques dans la militarisation de l’intelligence artificielle.

OpenAI et Google face à une fronde interne inédite des ingénieurs

Le mouvement est parti d’une lettre intitulée « We Will Not Be Divided », rapidement relayée dans les réseaux internes de Google et d’OpenAI. Selon plusieurs médias spécialisés, plus de 300 employés de Google et environ 60 salariés d’OpenAI ont signé le document dans les premières phases de la mobilisation. Les signataires proviennent d’équipes variées : ingénieurs logiciels, chercheurs en IA, responsables produits ou spécialistes de l’éthique algorithmique. Le texte invite explicitement les dirigeants des deux entreprises à soutenir les limites déjà posées par la société Anthropic concernant l’usage militaire de l’intelligence artificielle. Le message est clair. Les salariés redoutent que leurs technologies soient utilisées pour la surveillance massive ou pour des systèmes d’armes autonomes.

Dans la lettre, les auteurs écrivent : « Ils essaient de diviser chaque entreprise en faisant planer la peur que l’autre finira par céder. Cette stratégie ne fonctionne que si aucun d’entre nous ne sait où se situent les autres », selon l’article « Des employés de Google et d’OpenAI soutiennent la position d’Anthropic face au Pentagone dans une lettre ouverte », relayée par TechCrunch le 27 février 2026. Les ingénieurs accusent implicitement les autorités américaines de jouer la concurrence entre entreprises pour obtenir un accès élargi aux modèles d’IA. Le mouvement dépasse d’ailleurs les chiffres initiaux. Selon plusieurs analyses, la mobilisation a rapidement franchi le cap de plusieurs centaines de signatures dans les jours suivant la publication du texte. Une couverture du média Clubic du 5 mars 2026 indique même que près d’un millier de salariés de Google et d’OpenAI se sont associés à l’initiative. Le phénomène constitue ainsi l’une des plus grandes contestations internes liées à l’intelligence artificielle depuis les protestations contre le projet Maven de Google en 2018.

Le dilemme stratégique d’OpenAI face aux demandes du Pentagone

Au cœur de la crise se trouve la question des contrats militaires impliquant des technologies développées par OpenAI et d’autres entreprises d’IA. Le département de la Défense américain utilise déjà certains outils d’intelligence artificielle pour des tâches administratives ou analytiques. Selon plusieurs sources industrielles, des systèmes comme ChatGPT, Gemini ou Grok peuvent être employés pour des missions non classifiées, notamment l’analyse de données ou la synthèse de rapports. Mais la pression gouvernementale porte désormais sur des applications plus sensibles. Les discussions en cours concernent notamment l’intégration de modèles d’IA dans des réseaux militaires classifiés et dans des systèmes d’aide à la décision stratégique. Cette évolution inquiète fortement une partie des ingénieurs d’OpenAI et de Google, qui craignent une dérive vers des usages létaux ou vers la surveillance automatisée.

Le dirigeant d’OpenAI lui-même a reconnu certaines limites. Sam Altman a admis que son entreprise ne pouvait pas toujours contrôler l’usage final de ses technologies une fois déployées. Selon l’article publié par The Guardian le 4 mars 2026 « Sam Altman admet qu’OpenAI ne peut pas contrôler l’utilisation de l’IA par le Pentagone ». Par ailleurs, la controverse s’est intensifiée lorsque le Pentagone a envisagé d’utiliser des instruments juridiques exceptionnels pour obtenir l’accès à certaines technologies d’IA. Parmi eux figure le Defense Production Act, une loi datant de 1950 qui permet au gouvernement américain de contraindre des entreprises privées à soutenir l’effort de défense nationale.

Une bataille éthique qui dépasse OpenAI et Google

Ce conflit interne ne concerne pas seulement OpenAI ou Google. Il s’inscrit dans une transformation plus large du rapport entre la Silicon Valley et les institutions militaires. Depuis plusieurs années, l’IA est devenue un enjeu stratégique central pour les États. Les capacités d’analyse automatisée, de reconnaissance d’images ou de planification algorithmique peuvent transformer la conduite des opérations militaires. Cependant, cette évolution provoque une résistance croissante parmi les ingénieurs eux-mêmes. De nombreux chercheurs en intelligence artificielle considèrent que certaines applications dépassent les limites acceptables de leur travail.

La lettre signée par des employés de Google et d’OpenAI insiste notamment sur deux lignes rouges : la surveillance massive de populations et les armes autonomes capables de décider de l’usage de la force sans intervention humaine. Selon plusieurs médias internationaux, la mobilisation actuelle rappelle fortement les protestations de 2018 contre Project Maven. À l’époque, environ 3 000 salariés de Google avaient signé une pétition interne contre un programme d’analyse automatisée d’images de drones militaires. La contestation avait conduit l’entreprise à ne pas renouveler le contrat avec le Pentagone et à publier ses propres principes éthiques en matière d’IA. Mais la mobilisation actuelle possède une dimension nouvelle. Contrairement aux protestations précédentes, elle ne se limite pas à une seule entreprise. Des ingénieurs d’OpenAI et de Google agissent désormais conjointement. Cette coopération interentreprises constitue un tournant dans l’histoire de la gouvernance de l’intelligence artificielle.

La lettre ouverte appelle explicitement les dirigeants des deux groupes à adopter une position commune. Elle affirme : « Nous espérons que nos dirigeants mettront de côté leurs différends et resteront unis pour continuer à refuser les exigences actuelles du Département de la Guerre ». Les signataires souhaitent empêcher que la concurrence commerciale pousse une entreprise à accepter ce qu’une autre refuse. Dans le même temps, la pression politique s’intensifie. Les autorités américaines insistent sur la nécessité de maintenir une avance technologique face aux puissances rivales, notamment la Chine et la Russie, dans le domaine de l’IA militaire. Pour certains responsables gouvernementaux, l’intelligence artificielle représente déjà un enjeu comparable à la course nucléaire ou spatiale du XXe siècle. Ce contexte explique pourquoi la contestation interne chez OpenAI et Google attire autant d’attention. Elle révèle un dilemme d'un nouveau genre. Les ingénieurs qui conçoivent les systèmes d’IA ne veulent pas nécessairement participer à leur militarisation. Pourtant, leurs entreprises se retrouvent au cœur d’une compétition géopolitique mondiale.

Stephanie Haerts

Rédactrice dans la finance et l'économie depuis 2010. Après un Master en Journalisme, Stéphanie a travaillé pour un courtier en ligne à Londres où elle présentait un point bourse journalier sur LCI. Elle rejoint l'équipe d'Économie Matin en 2019, où elle écrit sur des sujets liés à l'économie, la finance, les technologies, l'environnement, l'énergie et l'éducation.

No comment on «OpenAI et Google : près de mille ingénieurs s’opposent à l’usage militaire de l’IA»

Leave a comment

* Required fields