Technologies biométriques : le Défenseur des droits se veut alarmiste

7 milliards d'euros
D'après la prévision du cabinet Markets and Markets, le marché de la
reconnaissance faciale devrait générer 7 milliards d'euros de chiffre
d'affaires d'ici 2024.

Dans un rapport publié le 19 juillet 2021, le Défenseur des droits livre un regard technophobe sur les technologies biométriques et recommande la mise en place de nombreux garde-fous qui interdiraient quasi-totalement leur utilisation.

Pour le Défenseur des droits, la reconnaissance faciale n’a pas sa place parmi les outils de la police

Les technologies biométriques (reconnaissance faciale, stockage et lecture d’empreintes digitales, biométrie vocale), sont-elles porteuses de progrès ou, au contraire, sont-elles susceptibles de causer du mal uniquement ? Pour le Défenseur des droits, pas de doutes : il voit ces technologies uniquement comme une menace. Dans un rapport dédié à ce sujet, il cite par exemple des cas documentés où des personnes appartenant à des minorités ethniques avaient été arrêtées voire emprisonnées injustement suite à un faux-positif du logiciel de reconnaissance faciale. Le Défenseur des droits admet lui-même que le fait d’« entraîner » ces systèmes sur un faible nombre de visages noirs et arabes, lors de leur conception, engendre une performance nettement moins bonne lorsqu’il fait face à ces personnes. Toutefois, le Défenseur des droits ne recommande pas de mieux « entraîner » ses logiciels, il recommande de limiter leur utilisation.

Un peu plus loin dans son rapport, l’institution affirme s’inquiéter du phénomène des contrôles au faciès. « Les niveaux de confiance dans la police ne dépendent pas seulement du contrôle en lui-même, mais aussi du fait qu’il soit perçu ou non comme du profilage racial », écrit le Défenseur des droits, qui cite même des statistiques montrant que les jeunes noirs et arabes sont contrôlés davantage que les blancs. Mais le Défenseur des droits ne voit pas dans les technologies de reconnaissance faciale une solution à ces biais humains. « L’utilisation d’outils biométriques d’identification et/ou d’évaluation par les forces de police pourrait dégrader la relation police/population si elle ne s’entoure pas de garanties suffisantes », affirme-t-il.

Évaluation automatisée des émotions : le Défenseur des droits brandit le spectre des discriminations à l’embauche

Le Défenseur des droits s’alarme aussi, pages 10 et 13, de l’existence de logiciels permettant aux recruteurs de repérer, lors des entretiens d’embauche, les candidats « nerveux » ou autrement incompatibles avec le poste en raison de leurs caractéristiques psychologiques et s’inquiète qu’une note basse assignée par un tel logiciel ne réduise les chances d’une telle personne d’être embauchée. Mais, page 17, le Défenseur des droits se rattrape et dit que l’utilisation de ce type de technologies aurait de toute façon été illégale, car elle contrevient à l’impératif de pertinence. En effet, l’article L122-1-8 du Code du travail précise que « [l]es méthodes et techniques d’aide au recrutement ou d’évaluation des candidats à un emploi doivent être pertinentes au regard de la finalité poursuivie ».

De manière plus générale, le Défenseur des droits recommande la mise en place de garde-fous. « Le déploiement de tout dispositif biométrique ne saurait s’effectuer sans satisfaire des conditions strictes de nécessité et de proportionnalité eu égard à la gravité des ingérences causées », peut-on lire dans le rapport.


A découvrir