[Best Of] Intelligence artificielle : doit-on craindre l’effet boîte noire ?

Cropped Favicon Economi Matin.jpg
Par Samy Fracso Publié le 6 août 2019 à 14h23
Amazon Embauche Intelligence Artificielle 2

Cet article initialement publié le 24 février 2019 vous est proposé en « Best-of » pendant l’été 2019. Lors de sa première publication il a été consulté par 8551 lecteurs.

On n’arrête plus le progrès en intelligence artificielle, son utilisation est multidisciplinaire et ne cesse de gagner du terrain. Les algorithmes utilisés en IA sont pour la grande majorité issus du Machine Learning or certains de ces algorithmes nous amènent à des résultats qui sont certes très efficaces mais qui restent très difficiles à expliquer. C’est le cas des réseaux de neurones qui s’avèrent extrêmement puissants pour la reconnaissance vocale ou d’images mais dont le fonctionnement reste plus ou moins mystérieux. Or, on retrouve ces algorithmes dans des usages où la moindre erreur peut être fatale comme la voiture autonome. Il est également fort probable que l'on vienne à utiliser l'IA autonome dans le domaine de la santé.

À première vue cela peut paraître surprenant d’utiliser des algorithmes efficaces mais inexplicables. Qu'entendons-nous par algorithme inexplicable ? Dans quelle mesure est-il problématique d’utiliser ces algorithmes révolutionnaires ?

Effet boîte noire

Le manque d’explicabilité des algorithmes est dû à l’effet boite noire. Pour bien comprendre prenons l’exemple des réseaux de neurones. Cette méthode est très utile pour les problèmes de classification supervisée c’est-à-dire l’ensemble des méthodes permettant la prédiction d’une variable cible connue. Pour de la reconnaissance d’image la variable cible pourrait être le contenu. Lors de la phase de construction, l’algorithme apprend à partir d’images dont le contenu lui est spécifié, puis lors de la phase de test, l’algorithme fait une prédiction sur le contenu d’une nouvelle image qu’il ne connaît pas.

Parmi les méthodes capables de résoudre ce type de problème il y a la régression logistique qui n’a pas de secret puisque totalement explicable. Elle consiste à déterminer la probabilité que la variable cible se rapproche de telle modalité plutôt qu’une autre. Pour résumer, l’algorithme détermine des coefficients, puis par transformation linéaire définie la probabilité en question. Cette méthode est maîtrisée dans le sens où l’on sait quelles sont les variables qui influent le plus avec quel degré d’importance.

Pour ce qui est du réseau de neurones, l’algorithme consiste à réaliser autant de régressions qu’il y a de neurones si bien qu’un réseau de neurones à une couche avec une fonction d’activation sigmoïde revient à faire une régression logistique. Cependant, l’efficacité du réseau de neurones réside dans la succession des neurones et donc de régressions. Or, on utilise pour chaque neurone les résultats de la précédente régression réalisée, il est donc impossible (pour l’instant) d’interpréter ces résultats. La succession des coefficients obtenus n’ont plus de sens pour l’humain.

C’est pour cela que l’on parle d’effet boite noire. Les résultats sont au rendez-vous mais nous ne sommes pas capables de comprendre la totalité du cheminement.

Problème légal avant tout

D’un certain point de vue, avec l’effet boîte noire, on pourrait assimiler l’intelligence artificielle à une technologie axiomatique, elle montre son efficacité de manière évidente et non démontrable. Avant d’éveiller la moindre inquiétude rappelons que ces algorithmes sont avant tout très fiables. Une fois implémentés, ils sont testés puis validés sur des nouvelles données. Tant que l’intelligence artificielle valide les tests et se montre robuste alors on peut lui faire confiance. Il est tout à fait possible de faire le parallèle avec le cerveau humain où le fonctionnement est inexplicable aujourd’hui pourtant cela ne nous empêche pas de travailler en toute confiance avec eux.

Dans son rapport, Cédric Villani préconise également des études approfondies pour rendre ces algorithmes explicables car au-delà du problème éthique la question est aussi réglementaire. Peut-on légalement autoriser un robot utilisant une IA dont les résultats sont efficaces mais non explicables ? Tout d’abord, il faut prendre conscience que l’intelligence artificielle apporte une vraie plus-value mais qu’en contrepartie, d’une part l’erreur existe et d’autre part le fonctionnement de l’algorithme peut s’avérer indémontrable. Sachant cela, c’est au pouvoir public de mettre en place la réglementation adéquate. Il ne serait pas étonnant de trouver des personnes indignées à la suite d’un accident dont l’origine serait la mauvaise prise de décision par une IA.

Par exemple en banque on utilise l’intelligence artificielle afin d’évaluer la capacité de remboursement d’une contrepartie en déterminant sa probabilité de défaut. L’algorithme utilisé dans la grande majorité des cas est la régression logistique qui est totalement explicable et c’est un bon point : il est important de savoir pour quelles raisons l’algorithme a tendance à dévaluer certains clients. Supposons qu’il soit possible de nettement améliorer l’approximation des probabilités de défaut en utilisant un réseau de neurones il est fort à parier que le modèle ne sera pas accepté par la BCE car le modèle n’est pas explicable et difficile entre autre de réaliser un audit sur un tel modèle.

Il y a de grandes chances que le problème éthique que posent ces algorithmes sera secondaire une fois qu’ils auront prouvé leur efficacité. Cependant le problème légal existe et ne doit pas être pris à la légère selon l’utilisation de l’IA. En santé, il semble essentiel de garder le contrôle sur l’explication de la décision prise par la machine.

Au fur et à mesure que l’intelligence artificielle s’immisce dans notre quotidien la question liée à l’utilisation de boîtes noires reviendra plus fréquemment. Pour certains cette question représente plus un défi pour les scientifiques qu’un débat pour les industriels ou la société. Effectivement si l’algorithme est performant et qu’il répond à nos attentes pourquoi essayer de comprendre la totalité de son fonctionnement ? D’autant plus que pour certains scientifiques être capable d’expliquer le fonctionnement d’un algorithme n'améliorera pas les résultats. Cependant il est important que les autorités prennent conscience de ce sujet et propose une réglementation en fonction du domaine d’application de l’intelligence artificielle comme le fait la BCE dans le cadre du risque de crédit.

Cropped Favicon Economi Matin.jpg

Doté d’un diplôme d’ingénieur en mathématique et modélisation, Samy Fracso est consultant senior pour le Groupe Square en tant que Data Scientist. Il a acquis de nombreuses connaissances en gestion des risques en participant notamment à l’exercice BCE d’audit TRIM sur la modélisation des paramètres bâlois.

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

Aucun commentaire à «[Best Of] Intelligence artificielle : doit-on craindre l’effet boîte noire ?»

Laisser un commentaire

* Champs requis