La mise en place d’une technologie de surveillance fondée sur la reconnaissance faciale par Sainsbury’s devait renforcer la sécurité en magasin. Pourtant, début février à Londres, une erreur impliquant une intelligence artificielle a conduit à l’expulsion injustifiée d’un client, déclenchant une polémique nationale sur les limites de la surveillance automatisée et ses conséquences humaines.
Reconnaissance faciale : un homme accusé à tort d’être un voleur…

Le 3 février 2026, dans un magasin Sainsbury’s du sud de Londres, un client a été pris à tort pour un voleur à la suite d’un incident lié à un dispositif de surveillance reposant sur l’intelligence artificielle et la reconnaissance faciale.
Reconnaissance faciale chez Sainsbury’s : une stratégie sécuritaire assumée
Sainsbury’s a progressivement déployé un système de surveillance basé sur la reconnaissance faciale dans plusieurs magasins londoniens afin de lutter contre le vol et les agressions envers le personnel. Selon les informations publiées par The Standard début février, cette technologie est fournie par l’entreprise Facewatch et repose sur une base de données partagée entre commerces partenaires. Elle contient les visages de personnes identifiées comme auteurs de vols ou de violences, dans un cadre présenté comme légal et encadré.
D’après les données communiquées par Sainsbury’s et reprises par The Guardian, l’enseigne affirme que cette surveillance intelligente aurait permis de réduire de 46 % les incidents de vol et de comportements agressifs dans les magasins tests. De plus, 92 % des individus signalés ne seraient pas revenus commettre d’infractions dans les points de vente équipés. Ces résultats ont conduit Sainsbury’s à étendre l’usage de la reconnaissance faciale à six magasins londoniens, dont celui d’Elephant and Castle, où s’est produit l’incident.
Facewatch revendique pour sa part un taux de précision de 99,98 % pour son intelligence artificielle de reconnaissance faciale. L’entreprise insiste sur le fait que le système ne prend jamais de décision autonome : il génère une alerte, qui doit ensuite être interprétée et validée par un agent humain formé.
Erreur de surveillance : un homme viré du magasin à tort
Le 3 février 2026, un client régulier du magasin Sainsbury’s d’Elephant and Castle a été approché par plusieurs employés et un agent de sécurité alors qu’il faisait ses courses. Sans explication détaillée, il a été invité à quitter le magasin. Selon son témoignage rapporté par la presse nationale britannique, le personnel lui a simplement indiqué qu’il avait été “signalé” par le système de surveillance utilisant la reconnaissance faciale.
L’homme a déclaré : « L’une des raisons pour lesquelles j’étais en colère, c’est que je n’aurais jamais dû avoir à prouver mon innocence », reprend The Guardian. Il explique avoir ressenti une humiliation profonde, accentuée par l’absence de justification claire et par le regard des autres clients présents. Il a décrit cet épisode comme l’un des plus dégradants de sa vie.
Après vérification, Facewatch a confirmé que le client ne figurait pas dans sa base de données et qu’aucune alerte générée par l’intelligence artificielle ne le concernait directement. Un porte-parole de Sainsbury’s a reconnu une erreur, précisant qu’il s’agissait d’un problème de surveillance humaine : « Cet incident résulte d’une erreur en magasin, où un membre du personnel a approché le mauvais client ». L’enseigne insiste ainsi sur le fait que l’IA de reconnaissance faciale n’aurait pas dysfonctionné techniquement.
Conséquences humaines, juridiques et débat public sur la surveillance
Pour démontrer qu’il n’était pas répertorié comme voleur, le client a dû transmettre une photographie de lui-même ainsi qu’une copie de son passeport à Facewatch. Cette procédure, pourtant présentée comme nécessaire à la vérification, a été vécue comme une atteinte grave à sa vie privée. Il a dénoncé ce processus comme une conséquence directe et excessive de la surveillance biométrique.
Face à la polémique, Sainsbury’s a présenté des excuses officielles et a proposé un bon d’achat de 75 livres sterling, soit environ 87 euros, en guise de compensation. Si ce geste vise à reconnaître l’erreur, il n’a pas suffi à calmer les critiques. Plusieurs associations de défense des libertés numériques, citées indirectement par la presse, estiment que ce type de surveillance transforme les magasins en espaces de contrôle permanent, où le risque d’erreur pèse avant tout sur les clients.
L’affaire a relancé un débat plus large au Royaume-Uni sur l’encadrement légal de la reconnaissance faciale dans les commerces. Bien que Sainsbury’s affirme respecter les règles en vigueur sur la protection des données, des experts rappellent que l’efficacité affichée des intelligences artificielles de surveillance ne supprime jamais totalement le risque d’erreur humaine. L’incident d’Elephant and Castle illustre ainsi comment une technologie présentée comme fiable peut produire des conséquences sociales lourdes lorsqu’elle est mal comprise ou mal appliquée.
