Une erreur de configuration d’Anthropic a révélé Claude Mythos, un modèle d’IA aux capacités cybersécuritaires offensives sans précédent. L’entreprise reconnaît avoir développé un outil dont les capacités dépassent les moyens de défense actuels, soulevant des inquiétudes majeures sur l’évolution de la cybersécurité.
Claude Mythos : l’IA d’Anthropic aux capacités cybersécuritaires inquiétantes révélée par erreur

Claude Mythos révèle les capacités cybersécuritaires offensives sans précédent d'Anthropic
Une simple erreur de configuration a suffi pour dévoiler au grand jour l'un des secrets les mieux gardés d'Anthropic. Claude Mythos, le nouveau modèle d'intelligence artificielle que l'entreprise qualifie elle-même de "le plus puissant qu'elle ait jamais développé", s'est retrouvé exposé accidentellement dans une base de données publique. Cette révélation involontaire soulève des interrogations majeures concernant les capacités offensives en cybersécurité de cette nouvelle génération d'IA.
Nous évoluons désormais dans une ère d'interdépendance technologique où chaque innovation peut engendrer des répercussions planétaires. À l'instar de ce cargo qui paralysa le canal de Suez en bloquant 10 à 12 % du trafic maritime mondial, les outils d'intelligence artificielle comme Claude Mythos illustrent parfaitement la vulnérabilité inhérente à notre monde interconnecté.
Une fuite causée par l'erreur humaine
C'est le 26 mars 2026 qu'Alexandre Pauwels de l'Université de Cambridge et Roy Paz de LayerX Security ont mis au jour cette faille de sécurité. Le système de gestion de contenu d'Anthropic avait malencontreusement laissé en accès public près de 3 000 fichiers non publiés, incluant un brouillon d'annonce détaillant les spécifications de Claude Mythos.
Cette "erreur humaine", selon les termes d'Anthropic, expose paradoxalement les limites sécuritaires d'une entreprise spécialisée dans le développement d'outils de cybersécurité. Les fichiers étaient configurés par défaut en accès public, un paramétrage que personne n'avait songé à modifier manuellement.
Fortune a authentifié les documents avant qu'Anthropic ne reconnaisse officiellement l'existence du projet et ne sécurise l'accès. Une mésaventure particulièrement embarrassante pour une société valorisée à 350 milliards de dollars en pleine préparation d'introduction en Bourse.
Capybara : un nouveau palier au-dessus d'Opus
Claude Mythos, désigné sous le nom de code "Capybara" dans les documents internes, introduit une catégorie entièrement inédite dans l'écosystème d'Anthropic. Jusqu'alors, la hiérarchie s'articulait autour de trois niveaux : Haiku pour la rapidité, Sonnet pour l'équilibre, et Opus pour les performances maximales. Capybara transcende désormais cette classification en se positionnant au-delà d'Opus.
Les performances annoncées surpassent "dramatiquement" celles de Claude Opus 4.6 selon plusieurs critères :
- Tests de programmation académique
- Capacités de raisonnement avancé
- Compétences en cybersécurité offensive
Cependant, ce dernier aspect suscite les plus vives préoccupations. Le modèle serait "actuellement bien en avance sur tout autre modèle d'IA en matière de capacités cyber" selon la documentation interne d'Anthropic. Plus inquiétant encore : il démontrerait une aptitude à exploiter des vulnérabilités logicielles "à une échelle qui dépasse largement les efforts des défenseurs".
Des capacités offensives qui dépassent les défenses
Cette révélation concernant Claude Mythos évoque les défis systémiques auxquels nous sommes confrontés : de même que le vieillissement démographique posera des défis structurels dans la seconde moitié du XXIᵉ siècle, les capacités offensives de l'IA risquent de surpasser notre capacité collective de défense.
Anthropic concède avoir développé un outil dont les potentialités offensives excèdent ce que les équipes de sécurité seraient en mesure de contrer efficacement. Cet aveu soulève des interrogations fondamentales sur la responsabilité éthique des développeurs d'intelligence artificielle.
Le modèle demeure actuellement limité à un groupe restreint de clients privilégiés en accès anticipé, sans calendrier de déploiement public. Les coûts opérationnels, significativement supérieurs aux versions actuelles, pourraient naturellement contraindre sa diffusion.
Une stratégie marketing rodée face aux risques
Confrontée à ces révélations, Anthropic met en exergue les risques inhérents à son propre outil tout en revendiquant une approche "responsable" : Claude Mythos sera initialement réservé aux cyberdéfenseurs pour leur procurer un avantage stratégique face à ce qu'Anthropic prédit être une "vague imminente d'exploits pilotés par l'IA".
En février 2026, OpenAI adoptait déjà cette posture avec le lancement de GPT-5.3-Codex, accompagné d'un programme "Trusted Access for Cyber" et d'un fonds de 10 millions de dollars en crédits API destiné aux équipes de protection d'infrastructures critiques.
Anthropic avait utilisé cette rhétorique lors du déploiement de Claude Opus 4.6, présenté comme un instrument défensif visant à "rétablir l'équilibre" face aux attaquants, tout en reconnaissant la nature ambivalente de ces capacités technologiques.
