Intelligence artificielle : la DGSI pointe les dangers pour les entreprises

La Direction générale de la sécurité intérieure (DGSI) pointe les dangers de l’intelligence artificielle. Les entreprises seraient exposées à des failles de plus en plus importantes.

Cedric.bonnefoy
By Cédric Bonnefoy Published on 7 janvier 2026 17h00
intelligence-artificielle-dgsi-problematique
Intelligence artificielle : la DGSI pointe les dangers pour les entreprises - © Economie Matin

La DGSI inquiète face à l’intelligence artificielle

Datée de décembre 2025 et révélée début janvier 2026, une note interne de la Direction générale de la sécurité intérieure alerte les acteurs économiques sur les dangers associés à l’intelligence artificielle. Alors que l’IA est de plus en plus intégrée dans les outils de travail quotidiens, la DGSI souligne que son usage non encadré expose les entreprises à des risques majeurs, tant sur le plan de la sécurité que de la gouvernance.

L’intelligence artificielle s’est imposée dans les entreprises comme un outil d’optimisation. Cependant, la note de la DGSI rappelle que cette banalisation s’accompagne de dérives préoccupantes. La DGSI a identifié plusieurs situations dans lesquelles des salariés ont utilisé des solutions d’IA générative accessibles gratuitement, sans cadre de sécurité défini par leur employeur.

Or, ces outils d’intelligence artificielle ne garantissent pas la confidentialité des informations traitées. La DGSI avertit que « les versions grand public des principaux outils d’IA générative, gratuites et standards, utilisent souvent les données entrées par l’utilisateur pour entraîner leurs modèles ». Ainsi, des données stratégiques peuvent être intégrées à des systèmes externes, parfois hébergés hors de l’Union européenne, ce qui constitue un danger direct pour les entreprises françaises, selon la note.

Intelligence artificielle, biais et dépendance décisionnelle

Au-delà des questions de confidentialité, la note de la DGSI s’attarde sur un autre danger lié à l’intelligence artificielle : la tentation de déléguer des décisions complexes à des systèmes automatisés. En effet, certaines entreprises ont accordé une confiance excessive à des recommandations produites par des outils d’IA, sans procéder aux vérifications nécessaires.

Selon la DGSI, « les IA formulent leurs résultats sur la base de la réponse la plus probable à apporter, statistiquement parlant, et pas nécessairement la plus pertinente ni la plus exacte dans le contexte de la question posée ». Cette logique probabiliste peut générer des biais ou des erreurs d’analyse, communément appelées hallucinations, susceptibles d’induire en erreur les décideurs. Par conséquent, la DGSI souligne que l’intelligence artificielle ne doit jamais être utilisée comme une source unique de vérité dans les processus stratégiques.

La note insiste également sur l’importance du facteur humain. Même si l’IA peut accélérer certaines tâches, son utilisation sans supervision expose les entreprises à des choix inadaptés, voire à des pertes financières. Ainsi, la DGSI recommande de maintenir une validation humaine systématique pour toute décision issue d’un outil d’intelligence artificielle.

Enfin, la note de la DGSI met en évidence une menace émergente particulièrement préoccupante : l’utilisation de l’intelligence artificielle à des fins d’escroquerie. Par exemple, un dirigeant d’entreprise a été la cible d’une tentative de fraude reposant sur un deepfake vidéo. L’appel simulait de manière crédible l’apparence et la voix du PDG, générées par des technologies d’IA. Ce type de problématique pourrait se reproduire à l’avenir.

Cedric.bonnefoy

Cédric Bonnefoy est journaliste en local à la radio. À côté, il collabore depuis 2022 avec Économie Matin.

No comment on «Intelligence artificielle : la DGSI pointe les dangers pour les entreprises»

Leave a comment

* Required fields