Fraude au président, réglementation, externalisation… l’IA générative rebat les cartes de la cybersécurité

Au cours des derniers mois, je ne pense pas avoir assisté à une seule réunion sans que la question de l’usage de l’IA générative ne soit au cœur des débats. Que ce soit pour parler de la façon dont les pirates utilisent déjà cette technologie, ou de la façon dont les entreprises envisagent de l’intégrer dans leurs processus : l’IA est sur toutes les lèvres. Voilà ce que je vois pour l’année à venir, en termes de cyber.

Guillaume Leseigneur 2022
Par Guillaume Leseigneur Publié le 10 janvier 2024 à 4h30
intelligence artificielle, ia, peur, danger, criminalité, analyse
33 MILLIARDS $Le marché de l'IA générative pourrait représenter 33 milliards de dollars en 2027.

Augmentation des attaques de type fraude au président

Jusqu'à présent, grâce aux chatbots, n'importe qui pouvait trouver et compiler rapidement des informations du domaine public. Mais ces données étaient basées sur des données qui existaient déjà. Aujourd’hui, grâce à ChatGPT 4.0 et son accès direct aux informations en temps réel via des API, la collecte et la création de profils détaillés deviennent extrêmement simples. Associées à l'aptitude des chatbots d’IA à générer des communications sur mesure, ces attaques vont être de plus en plus ciblées. On peut alors s’attendre à une recrudescence des attaques contre les hauts dirigeants, et à des attaques contre les flux d'approvisionnement et les devices de ces hauts dirigeants. Attention donc à la hausse des attaques de type fraude au président.

2024 : l’année de la régulation

Les outils d'IA peuvent générer du contenu avec des données collectées pour créer des profils détaillés sur les individus. Se pose alors la question de la responsabilité concernant la quantité de données agrégées. Qui de l'outil qui les agrège ou de la personne qui utilise l'outil est responsable ? À court terme, il faut s'attendre à ce que les demandes de droit à l'oubli se multiplient. Mais les entreprises devront également s'intéresser de plus près aux données personnelles de leurs employés auxquelles tout le monde à accès. Elles vont également examiner de plus près leurs propres données pour évaluer si ces outils d'IA ont accès à ces informations. À plus long terme, on peut également s'attendre à ce que les lois de protection des données fassent l'objet de nouvelles révisions.

La généralisation de l'authentification multifactorielle

Depuis quelques années, l'explosion des outils SaaS provoque des difficultés pour les entreprises qui veulent exploiter efficacement les solutions d'authentification unique (single sign on). Aujourd'hui, dans le mesure où l’on peut récupérer des informations publiques via les outils d'IA générative, on se retrouve face à deux problèmes annexes. Il faut s'attendre à ce que cette récupération de données soit associée à des outils de forçage de mots de passe, comme des noms d'animaux, de membres de la famille (informations classiques qu’utilisent les utilisateurs pour se rappeler de leurs mots de passe). En même temps, les outils d'IA générative permettent de berner les employés plus facilement en leur faisant croire qu'ils discutent avec un collègue ou un tiers de confiance, car ils créent un contexte réaliste. De ce fait, on assistera à une multiplication d'autres méthodes pour vérifier que la personne est bien celle qu'elle prétend être. Il est essentiel que l'authentification multifactorielle se généralise efficacement dans tous les domaines de l'entreprise.

Externaliser : oui ou non ?

L'étude de l'ISC2 sur les effectifs spécialisés dans la cybersécurité montre que le nombre de personnes actives dans ce domaine a augmenté d'environ 13 %, en revanche le nombre de postes vacants a progressé beaucoup plus rapidement, avec plus d'un poste sur deux non pourvu. Les entreprises vont donc devoir mieux utiliser leurs ressources pour en optimiser le potentiel, ce qui signifie qu'elles devront consolider davantage leurs capacités en matière de cybersécurité, et à mon avis, bon nombre d'entre elles vont remettre en question ce qu'elles gèrent par rapport à ce qu'elles consomment sous forme de services basés sur les résultats. A une époque, la sécurité était gérée directement au sein même de l’entreprise, mais le filtrage des e-mails a bouleversé les mentalités. Aujourd'hui, de nombreuses entreprises externalisent des parties du SoC et des capacités IR. La question qui se pose maintenant est la suivante : dans quelle mesure peut-on et doit-on externaliser ?

La barrière d'entrée de la cybersécurité baisse et remonte en même temps

D'un côté, l'AI générative permet à un grand nombre de personnes peu qualifiées de gérer certaines opérations, car elle simplifie des tâches complexes en les exprimant dans un langage accessible. On peut par exemple s’attendre à ce qu'elle permette aux analystes des SoC de niveau 1 de se simplifier considérablement la tâche car ils n'auront plus besoin de traduire les logs de plusieurs fournisseurs, l'AI se chargera de les convertir. En parallèle, des outils comme WormGPT permettent aux attaquants de créer des malwares plus facilement, puisqu'ils peuvent eux aussi bénéficier de cette traduction en langage plus simple. Par contre, les entreprises qui souhaitent développer ou personnaliser leur usage des outils d'IA générative auront besoin d'ingénieurs en ML, en AI et en sciences de l’IA, qui sont devenus des ressources bien plus rares aujourd'hui que les experts en cybersécurité classiques.

Guillaume Leseigneur 2022

directeur général Cybereason en France

Suivez-nous sur Google News Economie Matin - Soutenez-nous en nous ajoutant à vos favoris Google Actualités.

Aucun commentaire à «Fraude au président, réglementation, externalisation… l’IA générative rebat les cartes de la cybersécurité»

Laisser un commentaire

* Champs requis