Santé et intelligence artificielle : comment prévenir les inégalités au niveau mondial ?

Les bénéfices de l’IA sont inestimables mais la technologie ne remplace pas les politiques de santé ni la solidarité. L’IA responsable peut aider à en finir avec ces inégalités de soins, à condition d’être encadrée, comprise et surtout… partagée.

Gferreri
By Grégoire Ferreri Published on 15 février 2026 10h00
IA, maladie, santé, Charcot
Invincible Voice permet à des personnes privées de parole de dialoguer grâce à une voix de synthèse personnalisée. - © Economie Matin
2000 MILLIARDS $D'ici 2030, le marché de l'intelligence artificielle devrait représenter près de 2000 milliards de dollars

Des technologies puissantes, des résultats inégaux

Une étude publiée par Nature Medicine a montré que des systèmes d’IA spécialisés dans la détection du cancer cutané perdaient jusqu’à 36 % de précision sur les peaux foncées, du fait d’un manque de diversité dans les bases d’images qui ont servi à entraîner les modèles (1). Des biais de conception liés aux données que seule une IA responsable, éthique et encadrée, peut aider à repérer et prévenir. D’autant plus que les données constituent la base même sur laquelle les modèles d’IA sont développés et utilisés pour concevoir et à améliorer les médicaments, actuels et futurs.  C’est là où les données synthétiques jouent un rôle clé : elles reproduisent les caractéristiques des données réelles tout en compensant un déficit de représentativité, notamment dans les essais cliniques. Générées par des méthodes statistiques ou des techniques avancées comme le deep learning et l’IA générative, elles ouvrent la voie à des modèles plus inclusifs et fiables.

La fiabilité des modèles affectée par l’accès aux données

Faire avancer la science grâce à l’IA, c’est aussi et surtout mettre en commun des données au niveau national et parfois international. Or, le plus souvent dans le monde hospitalier, les systèmes d’information ne se parlent pas. Ici, l’apprentissage fédéré peut aider. Il fournit un paradigme d'apprentissage dans lequel plusieurs entités entraînent collaborativement un modèle d’IA, sans mise en commun de leurs données respectives. In fine, seuls les modèles appris sur les données locales sont envoyés en toute sécurité à un centre orchestrateur afin de consolider le modèle global.

Coopérer à grande échelle sans renoncer à la souveraineté des données

L’IA permet d’entraîner les modèles, de comparer les résultats, d’orienter la recherche. Mais la dimension humaine demeure prépondérante pour guider et encadrer son usage. Désormais “augmentés” par l’IA, les soignants doivent comprendre les outils qu’ils utilisent et garder la main sur la décision, même si l’IA les surpasse sur certaines tâches. Une méta-analyse publiée dans The Lancet Digital Health, a montré que l’IA atteint en moyenne 94 % de précision pour la détection d’anomalies pulmonaires, contre 87 % pour les radiologues expérimentés (2). Ces chiffres ne signifient pas que la machine est meilleure : ils illustrent la puissance de la collaboration homme-machine.

L’IA comme outil d’aide, pas comme arbitre médical

Le marché mondial de l’IA en santé devrait atteindre près de 188 milliards USD d’ici 2030, selon Grand View Research (3). Une croissance rapide, qui exige une gouvernance solide. Dans ce contexte sensible, l’Europe a choisi la prudence afin de favoriser une IA responsable et éthique, sans entraver l’innovation. Avec l’AI Act, les applications médicales sont désormais classées “à haut risque” : audits, supervision humaine, transparence des algorithmes. Mais encadrer ne signifie pas freiner l’innovation, il s’agit au contraire de la rendre durable.

Encadrer l’innovation pour éviter une médecine à deux vitesses

L’éthique est indispensable pour accompagner l’innovation et le progrès. Les comités de gouvernance, composés de médecins, de data scientists et de juristes, jouent un rôle clé dans cette perspective. Leur mission : vérifier les biais, garantir la sécurité, prévenir les dérives. Dans les essais cliniques, cette vigilance commence à porter ses fruits. Selon JAMA Network Open, l’usage d’outils d’IA permet de réduire la durée moyenne des essais de 10 à 20 %, sans perte de rigueur scientifique (4). Un gain de temps qui peut, parfois, sauver des vies.

Le véritable défi de l’IA en santé n’est pas technologique, mais moral : faire en sorte que les algorithmes servent la médecine, et non l’inverse. L’IA responsable n’est plus une option : c‘est la condition sine qua non pour un progrès qui n’oublie personne.

1. Nature Medicine (2023) – Algorithmic bias in dermatology AI models.
https://www.nature.com/articles/s41591-023-02511-7

2. The Lancet Digital Health (2023) – Performance of AI in detecting thoracic abnormalities on chest X-rays.

https://www.thelancet.com/journals/landig/article/PIIS2589-7500(23)00044-2/fulltext

3. Grand View Research (2024) – Artificial Intelligence in Healthcare Market Size Report 2024–2030.
https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-ai-in-healthcare-market

4. JAMA Network Open (2024) – AI-enabled optimization of clinical trial timelines and data quality.
https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2823294

Gferreri

Directeur général, SAS France

No comment on «Santé et intelligence artificielle : comment prévenir les inégalités au niveau mondial ?»

Leave a comment

* Required fields