IA et devoir fiduciaire : ce que l’algorithme ne peut pas porter

Howard Marks observe que l’intelligence artificielle n’a pas de skin in the game et que la décision finale doit rester humaine. Alors que les régulateurs imposent le maintien de la responsabilité humaine, une question cruciale se pose : que vaut une signature humaine sur une décision dont aucun humain ne porte plus l’incertitude ?

Portrait Jawad Elgannab
By Jawad Elgannab Published on 5 mai 2026 6h14
L’intelligence artificielle prépare une vague de licenciements sans précédent
IA et devoir fiduciaire : ce que l’algorithme ne peut pas porter - © Economie Matin
2000 MILLIARDS €D'ici 2030, le marché de l'intelligence artificielle devrait représenter près de 2000 milliards de dollars

Howard Marks observe que l’intelligence artificielle n’a pas de skin in the game. Il maintient que la décision finale doit rester humaine. Le formel est tenu, par l’AI Act, par l’ESMA, par les juridictions américaines. Reste le substantiel. Que pèse une signature humaine sur une décision dont aucun humain ne porte plus l’incertitude ?

Le formel, gravé dans le marbre

Le mémo AI Hurtles Ahead, publié le 26 février 2026 par Oaktree Capital Management, qui gère 223 milliards de dollars d’actifs au 31 décembre 2025, marque un seuil. Marks y reconnaît que l’IA exécute désormais ce qui définissait le métier de gérant, à savoir trier l’information, modéliser le risque, allouer le capital.

Le mouvement est installé, la trajectoire documentée,le calendrier posé. Le 2 août 2026, l’AI Act rendra applicables ses obligations pour les systèmes à haut risque. Sur le plan formel, les autorités ont tranché. L’ESMA (European Securities and Markets Authority) pose une règle claire : les décisions des entreprises d’investissement demeurent la responsabilité des organes de direction, indépendamment du fait qu’elles soient prises par des personnes ou par des outils fondés sur l’IA.

De l’autre côté de l’Atlantique, le standard Caremark oblige également les dirigeants à instaurer des dispositifs de surveillance des risques majeurs. La responsabilité humaine demeure ainsi pleine, intacte et opposable. Demeure aussi une asymétrie de second ordre que personne ne nomme. L’organe de direction signe ce que l’algorithme a calculé. Le risque change de porteur sans changer de signataire. Que signifie alors être juridiquement responsable d’une décision que l’on ne porte plus cognitivement ?

L'incertitude knightienne, la limite de l'algorithme

Le devoir fiduciaire est plus ancien que le droit financier. L’article 229 du Code de Hammurabi, daté de 1754 avant notre ère, pose la symétrie entre le risque pris et la conséquence subie y est posée comme principe.

En 1921, Frank Knight, dans Risk, Uncertainty and Profit, distingue le risque calculable, dont la probabilité se mesure, et l’incertitude radicale, irréductible à tout calcul. La rémunération du gérant, écrit Knight, rétribue cette incertitude portée, et non le risque mesuré. L’IA traite le risque calculable et l’optimise, mais elle ne touche pas à la zone knightienne. Ce que rémunère le métier de gérant lui demeure inaccessible par construction.

Les paradoxes de la transparence : entre auditabilité et complaisance Deux objections méritent d’être affrontées.

La première soutient que l’IA refonderait le devoir fiduciaire en l’élevant à une auditabilité radicale, là où l’humain demeure opaque à sa propre cognition. La trace algorithmique offrirait une transparence qu’aucun gérant n’a jamais consentie. L’objection bute sur un seuil. La traçabilité documente la décision, elle ne la porte pas. L’auditabilité atteste d’un processus, elle ne le convertit pas en engagement personnel. Auditer n’est pas répondre.

La seconde soutient l’inverse, l’IA forcerait l’engagement cognitif en imposant un challenge systématique. Le gérant deviendrait juge plutôt qu’analyste. L’aviation civile a démenti la thèse par trente ans d’observation, sous le nom d’automation complacency. Le crash du vol AF447 en 2009 a montré que la supervision prolongée d’un pilote automatique érode la compétence de reprise en main. Le juge qui n’analyse plus n’est plus un juge.

Trois scénarios pour la gestion d'actifs

Trois scénarios se dessinent. Le premier voit émerger un skin in the game contractuel, où les éditeurs d’algorithmes acceptent une responsabilité plafonnée en contrepartie de leur position dans la chaîne de décision, comme une couverture industrielle ordinaire. Le deuxième voit apparaître, sur certaines places américaines, des fonds explicitement sans IA en niche premium, où l’absence d’algorithme se monétise comme un signal de confiance fiduciaire. Le troisième voit l’auditabilité algorithmique se substituer à l’engagement personnel, le devoir fiduciaire devient une question de traçabilité plutôt que de portage du risque.

Les trois mécaniques convergent. Le formel est tenu. Le substantiel s’érode. Une fiduciarité de surface s’installe.

Un enjeu de formation au-delà de l'outil

La formation des futurs gérants se trouve dès lors devant un choix doctrinal, pas opérationnel. Apprendre à manier l’outil, toutes les business schools s’y emploient. Mais apprendre ce que l’outil ne peut pas faire, c’est-à-dire porter l’incertitude knightienne et engager une signature qui réponde, voilà ce qui distingue un métier d’un protocole. Une génération qui n’aurait appris que la première moitié signerait demain des décisions qu’elle ne saurait plus défendre.

Marks s’est arrêté à l’observation, et le régulateur en a légiféré la face visible. Le marché tranchera l’autre. La signature humaine restera lisible sur le contrat. L’incertitude, elle, aura changé d’adresse.

Portrait Jawad Elgannab

Enseignant-chercheur en stratégie, finance ESG & IA Responsable Recherche – SUP de V | CCI Paris Île-de-France Chercheur associé – LAREQUOI (EA 2452) | Université Paris-Saclay

No comment on «IA et devoir fiduciaire : ce que l’algorithme ne peut pas porter»

Leave a comment

* Required fields