Google va finalement mettre de l’IA dans les armes

Deux semaines après l’investiture de Donald Trump, Google a discrètement supprimé une promesse clé de sa charte d’intelligence artificielle.

Jade Blachier
Par Jade Blachier Publié le 5 février 2025 à 15h18
google-va-finalement-mettre-ia-dans-les-armes
google-va-finalement-mettre-ia-dans-les-armes - © Economie Matin

Le développement de l’intelligence artificielle soulève des enjeux éthiques de plus en plus pressants. Depuis plusieurs années, Google tentait d’incarner une approche responsable en s’engageant à ne pas concevoir d’outils militaires ou de surveillance. Le 4 février 2025, dans une indifférence médiatique relative, l’entreprise a discrètement supprimé une partie essentielle de sa charte d’IA. Cette décision intervient alors que Donald Trump vient de s’installer à nouveau à la Maison-Blanche.

Google et l’IA : une charte réécrite sous l’ère Trump

Le 4 février 2025, Google a discrètement modifié ses principes éthiques encadrant le développement de l’intelligence artificielle. Jusqu’à présent, l’entreprise s’engageait officiellement à ne pas mettre ses technologies au service de l’armement ni de la surveillance de masse. Cette clause a été effacée, sans communiqué officiel, laissant place à un discours plus vague sur la "responsabilité sociale".

Cette décision intervient seulement deux semaines après l’investiture de Donald Trump. Le nouveau président des États-Unis a immédiatement annulé un décret de Joe Biden qui encadrait l’utilisation militaire de l’IA et imposait une transparence sur les développements à risque. Désormais, les entreprises du secteur ne sont plus contraintes de divulguer leurs avancées lorsqu’elles touchent à des enjeux de sécurité nationale.

Une suppression discrète mais lourde de conséquences

Jusqu’à récemment, Google affichait dans ses principes fondateurs l’interdiction explicite de développer des armes, ainsi que toute technologie visant à surveiller les individus en violation des normes internationales. Ce cadre, instauré en 2018, avait été conçu en réponse aux protestations internes de milliers d’employés qui s’étaient opposés à la participation de Google au projet militaire Maven.

Désormais, cette liste d’interdictions n’existe plus. À la place, Google se contente d’affirmer son intention de respecter les lois et principes internationaux. Cette reformulation laisse une grande marge d’interprétation et ne garantit aucune restriction effective.

Cette suppression a immédiatement été remarquée par Bloomberg et The Guardian, provoquant un tollé chez certains employés et observateurs du secteur. Du côté de Google, aucune explication officielle n’a été donnée. Lorsqu’interrogé, un porte-parole s’est contenté de renvoyer vers un rapport interne intitulé L’IA responsable. Un changement majeur opéré en silence, sans justification, et dont les conséquences restent encore à mesurer.

L’IA militaire : une opportunité plus qu’un danger ?

Google justifie ce revirement par la nécessité de rester compétitif. Selon Demis Hassabis, PDG de Google DeepMind, et James Manyika, vice-président de Google, le monde est entré dans une course à l’IA où les démocraties doivent garder une longueur d’avance.

Dans leur communication officielle, les dirigeants de Google insistent sur l’importance pour les entreprises occidentales de rester en tête face aux avancées de pays concurrents. Ils estiment que l’IA doit être développée dans un cadre démocratique et que les États doivent pouvoir collaborer avec des entreprises privées pour garantir un usage "éthique" de ces technologies. En réalité, ce discours masque une logique économique implacable : les géants technologiques comme Microsoft, Amazon ou OpenAI ont déjà adapté leurs politiques pour s’ouvrir aux contrats militaires. Google ne fait que suivre le mouvement.

Microsoft a ainsi décroché un contrat de 22 milliards de dollars avec le Pentagone en 2023 pour des solutions d’IA. Amazon a multiplié les partenariats stratégiques avec l’armée américaine. OpenAI, quant à elle, a récemment ajusté ses conditions d’utilisation pour permettre certains usages gouvernementaux et de défense. Google, en supprimant ses restrictions, rejoint ce club fermé des entreprises prêtes à mettre leur IA au service des forces militaires.

Protestations internes et inquiétudes sur les dérives

Depuis plusieurs années, l’IA suscite des inquiétudes grandissantes quant à son utilisation dans les conflits armés et les systèmes de surveillance de masse. Google avait fait face à une révolte interne en 2018 lorsque 3 100 employés avaient dénoncé sa participation au programme militaire Maven. Face à cette contestation, l’entreprise avait alors publié une charte éthique interdisant tout développement dans le domaine militaire.

Aujourd’hui, cette charte n’a plus aucune valeur. Plusieurs experts et ONG spécialisées dans la surveillance technologique dénoncent une possible dérive incontrôlée. L’intégration de l’IA dans des opérations militaires ouvre la voie à des abus potentiels, notamment en matière de profilage ethnique, de répression politique et d’atteintes aux droits humains. Certains redoutent que ces technologies ne soient utilisées sans réel contrôle.

Un avenir où l’IA militaire devient la norme ?

Depuis l’élection de Donald Trump, plusieurs grandes entreprises technologiques ont revu leurs engagements. À l’instar de Meta, qui a fortement allégé sa politique de modération des contenus, la Silicon Valley semble s’adapter aux nouvelles priorités politiques. Google s’aligne sur une nouvelle vision du monde où l’IA militaire n’est plus un tabou, mais une opportunité commerciale.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Jade Blachier

Diplômée en Information Communication, journaliste alternante chez Economie Matin.

Aucun commentaire à «Google va finalement mettre de l’IA dans les armes»

Laisser un commentaire

* Champs requis