Michael R. Strain – Faut-il tuer l’intelligence artificielle ?

Le monde entier est stupéfait des progrès inouïs réalisés en si peu de temps par l’intelligence artificielle (IA). Or des personnalités influentes viennent de réagir en faisant une proposition mal inspirée : tirer le frein d’arrêt d’urgence du développement de l’IA.

Mrstrain
Par Michael Strain Publié le 10 mai 2023 à 5h16
Intelligence Artificielle Ia
383,3 MILLIARDS $Le marché global de l'Intelligence artificielle a atteint 383,3 milliards de dollars en 2021.

Dans une lettre ouverte, Elon Musk, Steve Wozniak, cofondateur d'Apple, de nombreux dirigeants d'entreprise, des universitaires connus et des milliers d'autres signataires demandent "de suspendre d'au moins 6 mois l'apprentissage des systèmes d'IA". CBS News a récemment demandé à Geoffrey Hinton, l'un des pionniers de l'apprentissage profond (deep learning) à l'origine des progrès récents, si l'IA n'allait pas "anéantir l'humanité".

Comme toujours quand apparaît une nouvelle technologie, beaucoup de commentateurs craignent qu'elle ne supprime le besoin de travailleurs humains. Une enquête d'Ipsos menée l'année dernière montre que moins de la moitié des Américains pensent que l'IA est porteuse de plus d'avantages que d'inconvénients.

Cet appel à une pause montre l'IA générative diffère de tout ce que nous avons connu jusqu'ici. ChatGPT d'OpenAI est si évolué qu'il peut à s'y méprendre mener une discussion avec un être humain, produire une rédaction de meilleure qualité que nombre d'étudiants, écrire ou corriger des codes informatiques. Le Financial Times a montré récemment que ChatGPT et Bard, le chatbot (robot conversationnel) expérimental de Google, peuvent dire des plaisanteries d'assez bonne qualité, écrire des slogans publicitaires, faire des choix ou imaginer une conversation entre Xi Jinping et Vladimir Poutine.

Il est compréhensible qu'une nouvelle technologie dotée de pouvoirs considérables suscite des inquiétudes. Mais la plupart de ces inquiétudes ne sont pas fondées. Les critiques de l'IA ont tendance à sous-estimer le rythme des changements technologiques du passé. En 1970, l'emploi aux USA était à peu près également réparti entre emplois peu, moyennement et très qualifiés (ils représentaient respectivement 31 %, 38 % et 30 % du nombre total d'heures travaillées). Un demi-siècle plus tard, l'emploi moyennement qualifié a chuté de 15 points de pourcentage !

Cette évolution est due en grande partie au progrès technologique : des robots et des logiciels remplacent des ouvriers dans les usines et des employés dans les bureaux. Dans le champ économique, le passé récent a été marqué par l'effondrement de la classe moyenne. Cette évolution a été lourde de conséquences pour les travailleurs de Ceinture de rouille des USA et les employés de bureau à travers le pays, mais également pour la société américaine dans son ensemble et la politique du pays.

Même la technologie la plus récente n'est pas aussi nouvelle qu'elle en a l'air. Les chatbots et les assistants virtuels étaient déjà très répandus avant que ChatGPT ne fasse les gros titres. Le chatbot en ligne de votre banque ne réussirait peut-être pas le test de Turing [distinguer un robot d'un être humain], mais comme ChatGPT il utilise le traitement du langage naturel pour dialoguer. Mes enfants parlent à Alexa, l'assistante virtuelle d'Amazon, comme s'ils s'adressaient à un être humain.

Ceux qui demandent une pause dans le développement de l'IA surestiment probablement la vitesse à laquelle elle transformera l'économie. Aussi impressionnant soit-il, ChatGPT se trompe sur de nombreux points. Lorsque j'ai saisi la requête "Veuillez me faire connaître quelques articles de Michael Strain sur l'économie", il m'a indiqué cinq articles, tous plausibles ; mais je n'en avais écrit aucun. De telles erreurs ne sont pas acceptables pour les hôpitaux, les cabinets d'avocats, les journaux, les groupes de réflexion, les universités, les organismes publics et bien d'autres institutions.

Des obstacles au sein des entreprises limiteront également le rythme du changement. Ainsi des avocats me disent qu'ils ne veulent pas de cette technologie parce qu'ils ne peuvent pas prendre le risque de divulguer des informations confidentielles en ligne. Il en ira de même pour les hôpitaux avec les données de leurs patients. Les producteurs d'IA vont créer des outils pour les entreprises, mais si l'apprentissage d'une IA dédiée à un secteur donné ne peut se faire à partir des données provenant de l'ensemble des entreprises du secteur, sera-t-elle aussi puissante et efficaces qu'attendu ? Il faut plus de temps qu'on ne le pense généralement pour que les entreprises utilisent efficacement une nouvelle technologie.

La lettre ouverte appelle à une pause de six mois pour permettre aux décideurs politiques et aux régulateurs de rattraper leur retard. Mais les régulateurs sont toujours en train de rattraper leur retard, et si les principales inquiétudes concernant l'IA sont fondées, une pause de six mois ne sera pas d'une grande utilité. Par ailleurs, si ces inquiétudes sont exagérées, une pause pourrait causer des dommages durables en sapant la compétitivité des USA ou en cédant le terrain à des acteurs moins responsables. En l'absence de pause décidée rapidement, les signataires de la lettre demandent aux Etats d'instituer un moratoire. Bonne chance pour en obtenir un de la Chine !

Il peut arriver qu'un Etat veuille arrêter le développement d'une technologie, mais ce n'est pas le cas ici. La réglementation devrait se concentrer sur la manière dont l'IA est utilisée, et non sur la question de savoir si elle peut continuer à se développer. Une fois que la technologie sera plus avancée, la manière dont elle devra être réglementée apparaîtra plus clairement. Y a-t-il un risque que l'IA "anéantisse" l'humanité ? Il est sans doute minuscule, je suppose néanmoins qu'il existe. Mais l'IA générative ne serait pas la première technologie porteuse de ce risque.

Les prophètes de malheur ont raison sur un point : l'IA générative affecte potentiellement une grande partie de l'économie (on a vu un tel bouleversement avec l'électricité et la machine à vapeur). Je ne serai pas étonné qu'elle devienne aussi indispensable que le smartphone ou les applications pour naviguer sur la toile, avec toutes les conséquences que cela va entraîner pour les travailleurs, les consommateurs et les modèles de fonctionnement d'entreprise.

La bonne réponse à un bouleversement économique ne consiste pas pour les décideurs politique à arrêter les horloges, mais à chercher les moyens d'augmenter la participation à la vie économique. Ne faudrait-il pas consacrer une partie du budget dédié à l'aide à l'emploi à mieux rémunérer les travailleurs qui ne sont pas passés par l'université ? Ne serait-il pas possible de former tant les étudiants que les travailleurs à utiliser l'IA pour améliorer leur productivité ? Quels sont les obstacles à une plus grande participation à la vie économique ?

Rappelons-nous que la destruction créative ne se résume pas à la destruction : elle crée aussi - souvent de manière inattendue et à grande échelle. Certes, des nuages d'orage obscurcissent notre avenir avec l'IA, mais au-delà de tempêtes momentanées, cet avenir est prometteur.

© Project Syndicate 1995–2023

Mrstrain

Michael R. Strain est directeur des études de politique économique de l'Institut American Enterprise.

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

1 commentaire on «Michael R. Strain – Faut-il tuer l’intelligence artificielle ?»

  • Faut-il tuer l’intelligence artificielle ? La réponse est « oui, partout et pour toujours ».

    Répondre
Laisser un commentaire

* Champs requis