L’intelligence artificielle : un ennemi plutôt qu’un allié pour la cybersécurité ?

Il y a quelques semaines, ChatGPT fêtait son premier anniversaire. Cet outil a marqué l’année informatique et changé considérablement l’IT et la cybersécurité, puisqu’il semble désormais impensable de passer à côté de l’Intelligence Artificielle (IA). Or, l’essor continu de l’IA est une arme à double tranchant pour les équipes de sécurité.

Vitu
Par Jean-Christophe Vitu Publié le 12 décembre 2023 à 5h00
intelligence artificielle, danger, piratage, securite
99%99% des équipes de sécurité françaises ont adopté l'IA pour certaines tâches.

En effet, selon l’Identity Security Threat Landscape Report 2023 de CyberArk, les professionnels de la cybersécurité se préparent à un afflux de nouvelles cybermenaces basées sur l'IA, bien que cette technologie soit également largement utilisée pour renforcer les défenses.

Les entreprises doivent prendre conscience des risques et des bénéfices des outils d’IA, notamment générative, afin de pouvoir se protéger face à de nouvelles menaces.

Selon notre rapport, plus de 9 équipes de cybersécurité françaises sur 10 (99 %) adoptent l’IA, et nombre d'entre elles utilisent déjà cette technologie pour trier les menaces mineures. L'IA générative (GenAI), en particulier, est déjà utilisée pour identifier plus rapidement les anomalies comportementales et améliorer la cyber-résilience, ce qui donne aux équipes plus de temps pour se former à l'évolution des menaces ou pour faire évoluer leurs systèmes de défenses, afin de lutter contre des cyber-attaques de plus en plus innovantes. Si le talent humain reste essentiel pour lutter contre les menaces émergentes, l'IA peut également contribuer à combler certaines des lacunes causées par la pénurie de main d’œuvre dans la cybersécurité.

Cependant, les outils GenAI, s’ils sont de plus en plus populaires, ouvrent également une toute nouvelle boîte de pandore de vulnérabilités, et suscitent des inquiétudes parmi les professionnels de la sécurité. Notre étude indique effectivement que 92 % des personnes interrogées s'attendent à ce que les menaces liées à l'IA aient un impact négatif sur leur organisation au cours de l'année à venir. La sécurité des chatbots est une préoccupation majeure. 30 % des personnes interrogées en France se préoccupent des moyens que les technologies génératives donnent aux cyberattaquants pour exploiter les vulnérabilités et injecter des logiciels malveillants, usurper l'identité d'employés par le biais de deepfakes et mener des campagnes de phishing.

Des acteurs malveillants utilisent déjà l’IA générative pour créer des emails à l'apparence légitime pour des campagnes de phishing, ou même générer des logiciels malveillants qui contournent l'authentification par reconnaissance faciale ou échappent à la détection. De telles techniques ont été révélées dans une de nos études au début de l'année, qui a mis en lumière que les cybercriminels pouvaient utiliser ChatGPT pour générer du code malveillant et créer des malwares polymorphes qui échappent à la plupart des solutions de cybersécurité.

Les équipes de cybersécurité doivent faire preuve d'une extrême prudence dans leurs relations avec l'IA. Il n'est pas simple de trouver un équilibre entre les avantages indéniables qu'elle apporte et les risques considérables qu'elle engendre. En effet, l'utilisation de l'IA a créé une explosion d'identités machines que des utilisateurs malintentionnés peuvent exploiter pour accéder à des données et des contrôles confidentiels.

Il est donc indispensable d'établir des directives d'entreprise spécifiques à l'IA, de publier des politiques d'utilisation et de mettre à jour les programmes de formation des employés en matière de cybersécurité. Une application raisonnable est nécessaire avant l'introduction de tout outil basé sur l'IA, car c'est le moyen le plus efficace d'atténuer les risques et de réduire les vulnérabilités. En l'absence de contrôles appropriés de la sécurité des identités et de défenses agnostiques contre les logiciels malveillants, il devient rapidement difficile de contenir les menaces innovantes en grand nombre qui peuvent compromettre les informations d'identification en vue d'accéder à des données et à des actifs sensibles.

Vitu

Jean-Christophe Vitu est VP Solution Engineers EMEA chez CyberArk.

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

Aucun commentaire à «L’intelligence artificielle : un ennemi plutôt qu’un allié pour la cybersécurité ?»

Laisser un commentaire

* Champs requis