L'intelligence artificielle pourrait devenir une opportunité pour les hackers

45 MILLIARDS €
En 2018, le piratage informatique aurait coûté plus de 45 milliards
d'euros dans le monde.

En entreprise, l’intelligence artificielle se développe de plus en plus et de mieux en mieux. Selon une étude Capgemini Research Institute de Juillet 2019, deux entreprises sur trois prévoiraient de déployer des systèmes liés à l’IA afin de renforcer leur défense dès 2020. Et c’est bien là que le bât blesse. En effet, une telle technologie pourrait bien faire le jeu des hackers. Alors qu’elle se démocratise dans toutes les sphères, les pirates informatiques commencent à détourner l’usage de l’IA. Dans les années qui viennent, s’avancerait-on vers un affrontement IA défensive versus IA offensive ?

L’IA automatisera t-elle les attaques de malwares ?

Si les attaques des hackers gagnent en complexité, il faut savoir qu’elles restent pourtant à la portée de tout pirate. Sur le darkweb, moyennant quelques centaines de dollars, il est déjà possible de télécharger des « tool kits » de hack. Ces kits se révèlent très intéressants pour lancer des attaques automatisées contre les logins utilisateurs. En quelques minutes, ce sont des centaines de mots de passe différents qui vont être testés. Demain, grâce à la démocratisation de l’IA, il n’est pas exclu d’imaginer qu’un hacker puisse, par le même procédé, utiliser des tool kits d’intelligence artificielle avec des malwares préconçus.

Un exemple concret serait la construction d’un malware qui puisse se propager de manière autonome et se disséminer dans un réseau jusqu’à y trouver sa cible spécifique. Le virus DeepLocker a, par exemple, été spécialement conçu par IBM pour être complétement autonome dans sa prise de décisions et s’activer sur une cible spécifique, déterminée via reconnaissance faciale et vocale.

Avant l’intelligence artificielle, l’un des points faibles des malware résidait dans la communication sortante nécessaire au hacker pour interagir avec ce que le malware avait découvert jusqu’à atteindre sa cible. Or, un malware avec IA autonome est plus difficilement détectable, car il n’a plus nécessairement besoin de communiquer vers l’extérieur. Le malware dissimule ses actions dans la masse de données et peut frapper jusqu’au remplissement de la mission.

Détourner l’IA

Au-delà de l’automatisation des malwares, le défi actuel des hackers consiste surtout à détourner les applications des IA défensives. En 2016, quelques semaines après le lancement du chatbot de Microsoft, des hackers l’ont détourné pour lui prêter des propos racistes. Dans la même veine, il n’a fallu que quelques minutes à une entreprise vietnamienne pour hacker le tout nouveau système de Face ID édité par Apple. Enfin, un groupe de chercheurs chinois a démontré combien détourner une voiture autonome - pourtant dotée d’une intelligence artificielle ultra perfectionnée - était un jeu d’enfant.

Le phénomène obligerait les entreprises qui utilisent l’IA à laisser les clés du camion à une IA défensive pour se protéger au risque de se faire infiltrer. L’intelligence artificielle reste une boîte noire. Lâcher entièrement du lest à une IA s’impose aussi comme une prise de risque dès lors qu’il s’agit de reprendre la main sur la cybersécurité.

L’utilisation massive de l’intelligence artificielle, si elle est salutaire, représente davantage de possibilités de détournements. Dans les années à venir, il n’est pas impossible d’imaginer qu’un affrontement puisse s’opérer entre IA défensive du côté des entreprises et IA offensive du côté des pirates ? La question est légitime : faut-il encore innover en IA au risque de se faire détourner et infiltrer ? Faut-il toujours faciliter la vie de l’utilisateur ? Et à quel coût ?


A découvrir