L’IA, nouvelle arme des hackers : l’alerte des experts en cybersécurité

Aux Assises de la cybersécurité, à Monaco, l’IA concentre les espoirs et les craintes. Car l’IA dope déjà les hackers, complexifie la cybersécurité et bouscule les priorités. Entre alertes officielles, chiffres clés et faits récents, le secteur s’accorde : l’IA est à la fois levier de défense et accélérateur d’attaques.

Stephanie Haerts
By Stéphanie Haerts Published on 10 octobre 2025 14h30
L’IA, nouvelle arme des hackers : l’alerte des experts en cybersécurité
L’IA, nouvelle arme des hackers : l’alerte des experts en cybersécurité - © Economie Matin

Le 8 octobre 2025, la 25e édition des Assises de la cybersécurité s’est ouverte à Monaco. Sur scène, un constat s’impose, l’IA n’est plus un simple sujet de prospective, mais un moteur immédiat des menaces et des contre-mesures en cybersécurité. Les organisateurs, les autorités et les experts décrivent un paysage mouvant où IA et hackers progressent de concert, obligeant les entreprises à revoir méthodes, budgets et compétences, sans délai.

IA et cybersécurité : l’alerte officielle s’amplifie

« Le message est simple : winter is coming », a lancé Vincent Strubel, directeur général de l’ANSSI. Une formule lapidaire, mais un signal clair, la menace grandit plus vite que les défenses, d’autant que l’IA abaisse le coût d’entrée pour les hackers et accélère les campagnes d’attaque, de l’hameçonnage aux intrusions hybrides, en passant par les fraudes augmentées par la synthèse vocale ou vidéo. Ce message, porté aux Assises, s’inscrit dans un diagnostic plus large sur la cybersécurité nationale et européenne. De plus, l’IA renforce des dépendances techniques critiques, notamment dans le cloud et les services de détection, ce qui fragilise les « leviers d’action » en cas d’attaque coordonnée. Selon Vincent Strubel, cité par L'Informaticien, le risque principal tient « à être submergé par la multiplicité des attaques » et à « perdre des leviers d’action » face à des technologies qui évoluent plus vite que les cadres de contrôle, IA en tête.

Dans le même temps, l’ANSSI fixe un cap technique structurant. Dès 2027, elle n’acceptera plus la qualification de produits de sécurité dépourvus de cryptographie résistante aux ordinateurs quantiques ; à l’horizon 2030, elle n’entend plus voir acquis des produits non résistants. Ce jalon, directement lié à la cybersécurité, répond à une inquiétude stratégique : si la cryptographie actuelle vacille, l’IA des hackers et leurs outils d’automatisation pourraient amplifier des brèches à très grande échelle. « Sans cryptographie fiable, il n’y a rien qui marche en cybersécurité », a insisté Vincent Strubel, précisant au passage des certifications récentes pour Thales et Samsung.

IA, hackers et industrialisation des attaques : les signaux faibles deviennent forts

Sur le terrain, les hackers exploitent déjà une chaîne d’outils où l’IA accélère la cybersécurité… à leur profit. Un exemple récent l’illustre, l’exploitation d’une faille zero-day dans Oracle E-Business Suite (CVE-2025-61882) a servi de base à une campagne d’extorsion. Le score CVSS 9,8 témoigne d’un risque critique, d’autant que la vulnérabilité était exploitable sans authentification et visait des versions largement déployées. Les autorités et experts ont demandé des correctifs immédiats ; la CISA a fixé une date limite au 27 octobre 2025 pour les agences fédérales, tandis que le NCSC britannique a appelé à des évaluations de compromission. Dans certains cas, des demandes d’extorsion ont atteint 50 millions de dollars, révélant l’industrialisation des attaques et leur pouvoir de nuisance, indépendante de l’IA, mais durablement amplifiée par elle. Ainsi, l’IA améliore la qualité linguistique des messages, personnalise les leurres et diversifie les vecteurs. Elle est devenue un multiplicateur d’efficacité pour les hackers, ce qui accroît la pression sur la cybersécurité opérationnelle.

Parallèlement, les grandes plateformes d’IA réagissent. Dans un rapport de menace public, OpenAI a annoncé avoir banni des comptes soupçonnés de liens avec des entités chinoises et avec des groupes criminels russophones, qui utilisaient l’IA pour le phishing et le malware. Toutefois, l’entreprise affirme n’avoir trouvé « aucune preuve de nouvelles tactiques » ni de « nouvelles capacités offensives » fournies par ses modèles. Le volume d’usage reste colossal, 800 millions d’utilisateurs hebdomadaires de ChatGPT, ce qui explique l’attention portée à ces détournements et la nécessité d’un encadrement plus fin de la cybersécurité liée à l’IA. En pratique, même si les modèles d’IA ne créent pas de capacités inédites, ils accélèrent la préparation d’attaques et aident les hackers à réduire leurs erreurs, ce qui rend la cybersécurité défensive plus complexe et plus coûteuse.

IA défensive : promesses réelles, garde-fous impératifs

Malgré ces risques, le fil conducteur des Assises n’est pas le renoncement, mais la maîtrise. Pour Maria Iacono, directrice des Assises, l’effort doit se poursuivre, avec lucidité : « Demain, on vous dira encore que les attaquants sont plus forts. » Cette lucidité appelle des arbitrages concrets : déployer l’IA pour prioriser les alertes, accélérer la réponse, réduire le bruit, tout en cadrenant strictement les usages internes et les flux de données sensibles, condition de toute cybersécurité durable. L’IA défensive peut, par exemple, corréler des signaux faibles, détecter des anomalies rares et réduire le temps de détection de compromissions. Mais elle impose des règles de gouvernance : inventaire des modèles, revue des prompts sensibles, cloisonnement, contrôles d’accès, et traçabilité. À défaut, le remède peut devenir vecteur de fuite, exposant des secrets industriels ou des identifiants, ce qui profiterait immédiatement aux hackers.

En écho, l’ANSSI a rappelé que la cybersécurité ne saurait s’arrêter à la technique pure. Les « risques non techniques », dépendances aux fournisseurs, lois extraterritoriales, disponibilité des services critiques, doivent être pris en compte au même titre que les vulnérabilités logicielles, surtout lorsque l’IA est fournie en mode service et que la chaîne d’outillage mêle clouds et composants tiers. Là encore, le calendrier post-quantique structure les investissements ; il vise à prévenir le scénario où une percée de calcul remettrait en cause des années de protections, ce qui, combiné à l’IA des hackers, produirait des effets systémiques.

Stephanie Haerts

Rédactrice dans la finance et l'économie depuis 2010. Après un Master en Journalisme, Stéphanie a travaillé pour un courtier en ligne à Londres où elle présentait un point bourse journalier sur LCI. Elle rejoint l'équipe d'Économie Matin en 2019, où elle écrit sur des sujets liés à l'économie, la finance, les technologies, l'environnement, l'énergie et l'éducation.

No comment on «L’IA, nouvelle arme des hackers : l’alerte des experts en cybersécurité»

Leave a comment

* Required fields