Claude Mythos : Anthropic fait fuiter son modèle IA le plus puissant
Le 27 mars 2026, des chercheurs en cybersécurité ont découvert quelque chose d’inattendu dans un espace de données non sécurisé d’Anthropic : près de 3 000 fichiers internes accessibles à tous, dont un brouillon de blog annonçant leur prochain modèle IA. Son nom : Claude Mythos, également appelé Capybara en interne. Anthropic a depuis confirmé son existence, le décrivant comme un « changement de cap » et son « modèle le plus puissant jamais développé ». Mais le document interne révèle aussi une autre réalité, beaucoup plus sombre : ce modèle pose selon Anthropic lui-même des « risques cybersécurité sans précédent ». Bienvenue dans le paradoxe d’une entreprise qui construit l’arme la plus puissante du monde numérique; et qui la laisse accidentellement traîner en pleine rue.
La fuite : comment 3 000 fichiers internes d’Anthropic se sont retrouvés accessibles à tous

Tout commence le 27 mars 2026. Roy Paz, chercheur senior en sécurité IA chez LayerX Security, et Alexandre Pauwels, de l’Université de Cambridge, découvrent quelque chose d’inhabituel. Un espace de données lié à l’infrastructure d’Anthropic est entièrement public, non authentifié, et librement consultable via une simple recherche. Dedans : près de 3 000 fichiers internes, incluant des ébauches de blog, des documents PDF, des images, et des mémos internes.
Parmi ces fichiers, un document en particulier retient immédiatement l’attention. C’est un brouillon de billet de blog annonçant un nouveau modèle IA. Un modèle que personne, en dehors d’Anthropic et d’un petit groupe de testeurs, n’était censé connaître. Son nom de code : Mythos. Son nom de gamme : Capybara. Sa description dans le document : « de loin le modèle IA le plus puissant que nous ayons jamais développé ».
Le magazine Fortune est contacté par les chercheurs, examine les documents, et informe Anthropic le jeudi soir. La réaction de l’entreprise est rapide : l’accès public au dépôt de données est coupé dans les heures qui suivent. Mais il est trop tard. Les documents ont déjà circulé dans les forums de sécurité et sur les réseaux sociaux. Anthropic confirme alors officiellement l’existence du modèle, attribuant la fuite à une « erreur humaine » dans la configuration de son système de gestion de contenu.
L’ironie de la situation n’échappe à personne. Anthropic, l’entreprise qui se présente comme la plus sérieuse sur la sécurité de l’IA, vient de laisser traîner dans un dépôt public non protégé les détails de son modèle le plus puissant : un modèle que ses propres documents décrivent comme présentant des « risques cybersécurité sans précédent ». La presse américaine s’est empressée de noter l’absurdité de la situation.
Ce qu’est vraiment Claude Mythos : un modèle au-dessus d’Opus

Jusqu’à cette fuite, Anthropic organisait ses modèles en trois gammes distinctes. Haiku, le plus léger et le moins coûteux, pour les tâches rapides. Sonnet, l’équilibre entre vitesse et performance, devenu le modèle de référence pour la majorité des usages professionnels. Et Opus, le plus puissant, réservé aux tâches les plus complexes mais aussi le plus coûteux à utiliser.
Capybara représente une quatrième gamme, positionnée au-dessus d’Opus. Dans les documents fuités, Anthropic décrit ce tier ainsi : « Capybara est un nouveau nom pour un nouveau niveau de modèle : plus grand et plus intelligent que nos modèles Opus, qui étaient jusqu’à présent nos plus puissants ». Claude Mythos serait le premier modèle appartenant à cette nouvelle gamme Capybara.
Les gains de performance décrits dans les documents sont significatifs. Comparé à Claude Opus 4.6, le meilleur modèle actuellement disponible, Mythos obtiendrait des scores dramatiquement plus élevés sur les tests de développement logiciel, de raisonnement académique, et de cybersécurité. Ces trois domaines ne sont pas choisis au hasard. Ce sont les trois axes stratégiques sur lesquels se joue la concurrence entre les grands laboratoires d’IA en 2026.
Un porte-parole d’Anthropic a confirmé à Fortune que Mythos représente « un changement de cap »; une formulation délibérément choisie pour indiquer que ce n’est pas une simple mise à jour incrémentale. C’est un saut qualitatif. Le modèle est actuellement testé par un petit groupe de clients en accès anticipé, et il n’est pas encore prêt pour une mise à disposition générale. Son coût d’utilisation, décrit comme élevé même pour les standards d’Anthropic, en limitera probablement l’accès dans un premier temps.
« Un changement de cap, le modèle le plus puissant que nous ayons jamais développé, avec des avancées significatives en raisonnement, codage et cybersécurité. »
Porte-parole Anthropic, confirmé à Fortune le 27 mars 2026
Le côté sombre : des risques cybersécurité que même Anthropic redoute
C’est le passage le plus saisissant des documents fuités. Anthropic, dans son propre brouillon de blog, avertit que Claude Mythos pose des « risques cybersécurité sans précédent« . Ce n’est pas une formulation de commentateur externe ou d’un critique de l’IA. C’est l’entreprise elle-même qui écrit, sur le modèle qu’elle a construit, qu’il « présage une vague prochaine de modèles capables d’exploiter des vulnérabilités à une vitesse qui dépasse de loin les efforts des défenseurs ».
Pour comprendre concrètement ce que cela signifie, il faut se représenter ce qu’une telle capacité cybersécurité implique dans les deux directions. Dans le sens défensif, un modèle capable d’identifier rapidement des vulnérabilités dans du code est un outil extraordinairement puissant pour les équipes de sécurité : il peut auditer des millions de lignes de code en quelques heures et détecter des failles que des équipes entières d’humains auraient mis des mois à trouver.
Mais dans le sens offensif, ce même modèle peut être utilisé pour identifier des vulnérabilités dans les systèmes des cibles avant que leurs équipes de sécurité n’aient eu le temps de les corriger. C’est précisément la nature duale de l’IA avancée : chaque capacité défensive est simultanément une capacité offensive. Et dans le domaine cybersécurité, cette dualité est particulièrement explosive.
Les chiffres concrets déjà disponibles illustrent l’ampleur de ce risque. Dans un test de sécurité antérieur, Claude, une version moins puissante que Mythos, avait été transformé en usine à malwares en moins de huit heures. Anthropic avait également découvert et interrompu une campagne d’un groupe parrainé par l’État chinois qui utilisait Claude Code pour infiltrer environ trente organisations à travers le monde, incluant des entreprises tech, des institutions financières et des agences gouvernementales. Si une version moins puissante que Mythos a permis ces opérations, les capacités du nouveau modèle donnent une nouvelle dimension à ces risques.
La réaction des marchés financiers a été immédiate et significative. Les actions des entreprises de cybersécurité ont chuté de près de 3% vendredi après la publication de l’information par Fortune. Bitcoin a reculé vers les 66 000 dollars. Les investisseurs ont interprété la nouvelle comme un signe que les modèles IA de prochaine génération vont rendre la défense cybersécurité significativement plus difficile, menaçant le modèle économique des acteurs traditionnels du secteur.
La stratégie d’Anthropic : un déploiement délibérément lent, centré sur la défense

Face à ces risques, Anthropic a choisi une approche radicalement différente de celle adoptée par OpenAI pour ses lancements récents. Pas d’annonce fracassante, pas de mise à disposition immédiate au grand public, pas de course à l’adoption. Au contraire : un déploiement contrôlé, avec un groupe restreint de testeurs soigneusement sélectionnés, prioritairement dans le domaine de la cyberdéfense.
Le document interne décrit l’intention d’Anthropic de fournir d’abord l’accès à Mythos aux équipes de cyberdéfense, pour leur donner « une longueur d’avance dans l’amélioration de la robustesse de leurs bases de code contre la vague imminente d’exploits pilotés par IA ». C’est une stratégie de déploiement asymétrique : renforcer les défenseurs avant que les attaquants n’aient accès au même niveau de puissance.
Cette approche s’inscrit dans la Responsible Scaling Policy d’Anthropic, un cadre interne qui définit des seuils de capacité au-delà desquels des mesures de sécurité supplémentaires s’imposent avant tout déploiement. Mythos semble avoir atteint plusieurs de ces seuils simultanément, notamment dans le domaine cyber, ce qui explique la prudence particulière entourant son lancement.
La fuite a également révélé un autre document intéressant : les détails d’un sommet sur invitation destiné aux PDG européens, prévu dans un manoir anglais du XVIIIe siècle. Dario Amodei, PDG d’Anthropic, devait y participer. Ce sommet s’inscrit dans la stratégie commerciale agressive d’Anthropic pour s’imposer dans les grandes entreprises européennes; un marché que l’entreprise considère visiblement comme prioritaire.
Tableau comparatif : Claude Mythos face aux modèles existants
Sources : documents fuités Anthropic, confirmés par Fortune & Anthropic le 27 mars 2026 | Analyse IABoosts.com
Ce que cela change concrètement pour les entrepreneurs
Pour un entrepreneur qui suit l’IA sans être ingénieur, cette fuite soulève des questions pratiques très concrètes. Plusieurs méritent une réponse directe.
1. Claude Mythos sera-t-il accessible et à quel prix ?

Probablement pas dans l’immédiat, et à un tarif significativement plus élevé qu’Opus lorsqu’il le sera. Les documents décrivent un modèle coûteux à faire tourner, réservé dans un premier temps à un accès anticipé très sélectif. Pour la grande majorité des usages entrepreneuriaux courants, Claude Sonnet 4.6 ou Opus 4.6 resteront les références pratiques pour les prochains mois.
2. Les risques cybersécurité me concernent-ils directement ?
Pas directement, dans le sens où Mythos n’est pas encore accessible. Mais indirectement, oui. Ce modèle préfigure une tendance lourde : les modèles IA de prochaine génération vont rendre certaines formes d’attaques informatiques significativement plus accessibles et plus rapides à exécuter. Cela signifie que les pratiques de sécurité de base : mots de passe robustes, double authentification, données sensibles hors des outils IA grand public, ne sont plus optionnelles pour aucune entreprise, quelle que soit sa taille.
3. Qu’est-ce que cela dit d’Anthropic par rapport à OpenAI ?
La fuite révèle qu’Anthropic est en train de prendre un avantage technologique significatif sur OpenAI dans le domaine de la puissance brute des modèles. La déroute de GPT-5 en août 2025, bien en dessous des promesses initiales, avait déjà signalé un rééquilibrage des forces. Claude Mythos, si les performances décrites dans les documents fuités se confirment, consoliderait la position d’Anthropic comme le laboratoire à la frontière technologique en 2026.
