L’appel des experts de la tech à la mise en pause de l’IA

Plusieurs milliers d’experts de la tech mondiale, Elon Musk et Steve Wozniak, cofondateur d’Elon Musk en tête, ont appelé à une mise en pause des recherches en matière d’IA, après la sortie de ChatGPT 4.0. Nous reproduisons ici la version traduite depuis la source originale en anglais, à l’aide de… ChatGPT 4.0.

Cropped Favicon Economi Matin.jpg
Par Rédaction Publié le 30 mars 2023 à 16h28
Intelligence Articficiel Ia Donnees%20
10 MILLIARDS $Microsoft a investi 10 milliards de dollars dans ChatGPT

Nous appelons tous les laboratoires d'IA à mettre immédiatement en pause, pour au moins 6 mois, la formation de systèmes d'IA plus puissants que GPT-4.

Les systèmes d'IA dotés d'une intelligence compétitive humaine peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent de nombreuses recherches et reconnu par les principaux laboratoires d'IA. Comme indiqué dans les Principes d'IA d'Asilomar largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre et devrait être planifiée et gérée avec un soin et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois, les laboratoires d'IA se sont lancés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable. Les systèmes d'IA contemporains sont désormais compétitifs avec les humains pour des tâches générales et nous devons nous demander : devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devons-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devons-nous développer des esprits non humains qui pourraient éventuellement nous surpasser, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ?
De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus. Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration d'OpenAI concernant l'intelligence artificielle générale stipule qu'"à un certain moment, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes et pour les efforts les plus avancés de convenir de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. Ce moment est maintenant. C'est pourquoi nous appelons tous les laboratoires d'IA à mettre immédiatement en pause, pour au moins 6 mois, la formation de systèmes d'IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instaurer un moratoire. Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement d'IA avancée, qui doivent être rigoureusement audités et supervisés par des experts indépendants externes. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul face à la course dangereuse vers des modèles de boîte noire toujours plus imposants et imprévisibles, dotés de capacités émergentes.

La recherche et le développement en IA devraient être recentrés sur l'amélioration de la précision, de la sécurité, de l'interprétabilité, de la transparence, de la robustesse, de l'alignement, de la confiance et de la loyauté des systèmes puissants et à la pointe de la technologie d'aujourd'hui.

En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance solides en matière d'IA. Ceux-ci devraient inclure, au minimum : de nouvelles autorités réglementaires compétentes dédiées à l'IA ; la supervision et le suivi des systèmes d'IA hautement performants et des grandes capacités de calcul ; des systèmes de provenance et de marquage pour distinguer le réel du synthétique et suivre les fuites de modèles ; un écosystème solide d'audit et de certification ; la responsabilité en cas de préjudice causé par l'IA ; un financement public solide pour la recherche sur la sécurité technique de l'IA ; et des institutions bien dotées pour faire face aux perturbations économiques et politiques (en particulier pour la démocratie) que l'IA provoquera.

L'humanité peut profiter d'un avenir florissant avec l'IA. Ayant réussi à créer des systèmes d'IA puissants, nous pouvons maintenant profiter d'un "été de l'IA" dans lequel nous récoltons les récompenses, concevons ces systèmes pour le bénéfice évident de tous et donnons à la société une chance de s'adapter. La société a déjà mis en pause d'autres technologies ayant des effets potentiellement catastrophiques sur la société. Nous pouvons le faire ici aussi. Profitons d'un long été de l'IA, plutôt que de nous précipiter sans préparation vers un automne.

Article initialement pûblié sur Future of Life

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

Aucun commentaire à «L’appel des experts de la tech à la mise en pause de l’IA»

Laisser un commentaire

* Champs requis