Anthropic IA

Claude Mythos : Anthropic fait fuiter son modèle IA le plus puissant 

Le 27 mars 2026, des chercheurs en cybersécurité ont découvert quelque chose d’inattendu dans un espace de données non sécurisé d’Anthropic : près de 3 000 fichiers internes accessibles à tous, dont un brouillon de blog annonçant leur prochain modèle IA. Son nom : Claude Mythos, également appelé Capybara en interne. Anthropic a depuis confirmé son existence, le décrivant comme un « changement de cap » et son « modèle le plus puissant jamais développé ». Mais le document interne révèle aussi une autre réalité, beaucoup plus sombre : ce modèle pose selon Anthropic lui-même des « risques cybersécurité sans précédent ». Bienvenue dans le paradoxe d’une entreprise qui construit l’arme la plus puissante du monde numérique; et qui la laisse accidentellement traîner en pleine rue.

3 000
Fichiers internes Anthropic accessibles au public par erreur
4e tier
Nouvelle gamme Capybara — au-dessus d’Opus, Sonnet et Haiku
-3%
Chute des actions cybersécurité après la révélation
~30
Organisations infiltrées par hackers utilisant Claude Code (état chinois)

La fuite : comment 3 000 fichiers internes d’Anthropic se sont retrouvés accessibles à tous

Anthropic IA

Tout commence le 27 mars 2026. Roy Paz, chercheur senior en sécurité IA chez LayerX Security, et Alexandre Pauwels, de l’Université de Cambridge, découvrent quelque chose d’inhabituel. Un espace de données lié à l’infrastructure d’Anthropic est entièrement public, non authentifié, et librement consultable via une simple recherche. Dedans : près de 3 000 fichiers internes, incluant des ébauches de blog, des documents PDF, des images, et des mémos internes.

Parmi ces fichiers, un document en particulier retient immédiatement l’attention. C’est un brouillon de billet de blog annonçant un nouveau modèle IA. Un modèle que personne, en dehors d’Anthropic et d’un petit groupe de testeurs, n’était censé connaître. Son nom de code : Mythos. Son nom de gamme : Capybara. Sa description dans le document : « de loin le modèle IA le plus puissant que nous ayons jamais développé ».

Le magazine Fortune est contacté par les chercheurs, examine les documents, et informe Anthropic le jeudi soir. La réaction de l’entreprise est rapide : l’accès public au dépôt de données est coupé dans les heures qui suivent. Mais il est trop tard. Les documents ont déjà circulé dans les forums de sécurité et sur les réseaux sociaux. Anthropic confirme alors officiellement l’existence du modèle, attribuant la fuite à une « erreur humaine » dans la configuration de son système de gestion de contenu.

L’ironie de la situation n’échappe à personne. Anthropic, l’entreprise qui se présente comme la plus sérieuse sur la sécurité de l’IA, vient de laisser traîner dans un dépôt public non protégé les détails de son modèle le plus puissant : un modèle que ses propres documents décrivent comme présentant des « risques cybersécurité sans précédent ». La presse américaine s’est empressée de noter l’absurdité de la situation.

Ce qu’est vraiment Claude Mythos : un modèle au-dessus d’Opus

Anthropic IA

Jusqu’à cette fuite, Anthropic organisait ses modèles en trois gammes distinctes. Haiku, le plus léger et le moins coûteux, pour les tâches rapides. Sonnet, l’équilibre entre vitesse et performance, devenu le modèle de référence pour la majorité des usages professionnels. Et Opus, le plus puissant, réservé aux tâches les plus complexes mais aussi le plus coûteux à utiliser.

Capybara représente une quatrième gamme, positionnée au-dessus d’Opus. Dans les documents fuités, Anthropic décrit ce tier ainsi : « Capybara est un nouveau nom pour un nouveau niveau de modèle : plus grand et plus intelligent que nos modèles Opus, qui étaient jusqu’à présent nos plus puissants ». Claude Mythos serait le premier modèle appartenant à cette nouvelle gamme Capybara.

Les gains de performance décrits dans les documents sont significatifs. Comparé à Claude Opus 4.6, le meilleur modèle actuellement disponible, Mythos obtiendrait des scores dramatiquement plus élevés sur les tests de développement logiciel, de raisonnement académique, et de cybersécurité. Ces trois domaines ne sont pas choisis au hasard. Ce sont les trois axes stratégiques sur lesquels se joue la concurrence entre les grands laboratoires d’IA en 2026.

Un porte-parole d’Anthropic a confirmé à Fortune que Mythos représente « un changement de cap »; une formulation délibérément choisie pour indiquer que ce n’est pas une simple mise à jour incrémentale. C’est un saut qualitatif. Le modèle est actuellement testé par un petit groupe de clients en accès anticipé, et il n’est pas encore prêt pour une mise à disposition générale. Son coût d’utilisation, décrit comme élevé même pour les standards d’Anthropic, en limitera probablement l’accès dans un premier temps.

« Un changement de cap, le modèle le plus puissant que nous ayons jamais développé, avec des avancées significatives en raisonnement, codage et cybersécurité. »

Porte-parole Anthropic, confirmé à Fortune le 27 mars 2026

Le côté sombre : des risques cybersécurité que même Anthropic redoute

C’est le passage le plus saisissant des documents fuités. Anthropic, dans son propre brouillon de blog, avertit que Claude Mythos pose des « risques cybersécurité sans précédent« . Ce n’est pas une formulation de commentateur externe ou d’un critique de l’IA. C’est l’entreprise elle-même qui écrit, sur le modèle qu’elle a construit, qu’il « présage une vague prochaine de modèles capables d’exploiter des vulnérabilités à une vitesse qui dépasse de loin les efforts des défenseurs ».

Pour comprendre concrètement ce que cela signifie, il faut se représenter ce qu’une telle capacité cybersécurité implique dans les deux directions. Dans le sens défensif, un modèle capable d’identifier rapidement des vulnérabilités dans du code est un outil extraordinairement puissant pour les équipes de sécurité : il peut auditer des millions de lignes de code en quelques heures et détecter des failles que des équipes entières d’humains auraient mis des mois à trouver.

Mais dans le sens offensif, ce même modèle peut être utilisé pour identifier des vulnérabilités dans les systèmes des cibles avant que leurs équipes de sécurité n’aient eu le temps de les corriger. C’est précisément la nature duale de l’IA avancée : chaque capacité défensive est simultanément une capacité offensive. Et dans le domaine cybersécurité, cette dualité est particulièrement explosive.

Les chiffres concrets déjà disponibles illustrent l’ampleur de ce risque. Dans un test de sécurité antérieur, Claude, une version moins puissante que Mythos, avait été transformé en usine à malwares en moins de huit heures. Anthropic avait également découvert et interrompu une campagne d’un groupe parrainé par l’État chinois qui utilisait Claude Code pour infiltrer environ trente organisations à travers le monde, incluant des entreprises tech, des institutions financières et des agences gouvernementales. Si une version moins puissante que Mythos a permis ces opérations, les capacités du nouveau modèle donnent une nouvelle dimension à ces risques.

La réaction des marchés financiers a été immédiate et significative. Les actions des entreprises de cybersécurité ont chuté de près de 3% vendredi après la publication de l’information par Fortune. Bitcoin a reculé vers les 66 000 dollars. Les investisseurs ont interprété la nouvelle comme un signe que les modèles IA de prochaine génération vont rendre la défense cybersécurité significativement plus difficile, menaçant le modèle économique des acteurs traditionnels du secteur.

La stratégie d’Anthropic : un déploiement délibérément lent, centré sur la défense

Anthropic IA

Face à ces risques, Anthropic a choisi une approche radicalement différente de celle adoptée par OpenAI pour ses lancements récents. Pas d’annonce fracassante, pas de mise à disposition immédiate au grand public, pas de course à l’adoption. Au contraire : un déploiement contrôlé, avec un groupe restreint de testeurs soigneusement sélectionnés, prioritairement dans le domaine de la cyberdéfense.

Le document interne décrit l’intention d’Anthropic de fournir d’abord l’accès à Mythos aux équipes de cyberdéfense, pour leur donner « une longueur d’avance dans l’amélioration de la robustesse de leurs bases de code contre la vague imminente d’exploits pilotés par IA ». C’est une stratégie de déploiement asymétrique : renforcer les défenseurs avant que les attaquants n’aient accès au même niveau de puissance.

Cette approche s’inscrit dans la Responsible Scaling Policy d’Anthropic, un cadre interne qui définit des seuils de capacité au-delà desquels des mesures de sécurité supplémentaires s’imposent avant tout déploiement. Mythos semble avoir atteint plusieurs de ces seuils simultanément, notamment dans le domaine cyber, ce qui explique la prudence particulière entourant son lancement.

La fuite a également révélé un autre document intéressant : les détails d’un sommet sur invitation destiné aux PDG européens, prévu dans un manoir anglais du XVIIIe siècle. Dario Amodei, PDG d’Anthropic, devait y participer. Ce sommet s’inscrit dans la stratégie commerciale agressive d’Anthropic pour s’imposer dans les grandes entreprises européennes; un marché que l’entreprise considère visiblement comme prioritaire.

Tableau comparatif : Claude Mythos face aux modèles existants

🧠 Claude Mythos face aux modèles existants — Où se situe Capybara ?
Modèle Tier Puissance Disponibilité Coût relatif
Claude Haiku Tier 1 ⭐⭐ Disponible
Claude Sonnet 4.6 Tier 2 ⭐⭐⭐ Disponible €€
Claude Opus 4.6 Tier 3 ⭐⭐⭐⭐ Disponible €€€
🚀 Claude Mythos (Capybara) Tier 4 — NOUVEAU ⭐⭐⭐⭐⭐ Accès anticipé uniquement €€€€€ — très élevé

Sources : documents fuités Anthropic, confirmés par Fortune & Anthropic le 27 mars 2026 | Analyse IABoosts.com

Ce que cela change concrètement pour les entrepreneurs

Pour un entrepreneur qui suit l’IA sans être ingénieur, cette fuite soulève des questions pratiques très concrètes. Plusieurs méritent une réponse directe.

1. Claude Mythos sera-t-il accessible et à quel prix ?

Anthropic IA

Probablement pas dans l’immédiat, et à un tarif significativement plus élevé qu’Opus lorsqu’il le sera. Les documents décrivent un modèle coûteux à faire tourner, réservé dans un premier temps à un accès anticipé très sélectif. Pour la grande majorité des usages entrepreneuriaux courants, Claude Sonnet 4.6 ou Opus 4.6 resteront les références pratiques pour les prochains mois.

2. Les risques cybersécurité me concernent-ils directement ?

Pas directement, dans le sens où Mythos n’est pas encore accessible. Mais indirectement, oui. Ce modèle préfigure une tendance lourde : les modèles IA de prochaine génération vont rendre certaines formes d’attaques informatiques significativement plus accessibles et plus rapides à exécuter. Cela signifie que les pratiques de sécurité de base : mots de passe robustes, double authentification, données sensibles hors des outils IA grand public, ne sont plus optionnelles pour aucune entreprise, quelle que soit sa taille.

3. Qu’est-ce que cela dit d’Anthropic par rapport à OpenAI ?

La fuite révèle qu’Anthropic est en train de prendre un avantage technologique significatif sur OpenAI dans le domaine de la puissance brute des modèles. La déroute de GPT-5 en août 2025, bien en dessous des promesses initiales, avait déjà signalé un rééquilibrage des forces. Claude Mythos, si les performances décrites dans les documents fuités se confirment, consoliderait la position d’Anthropic comme le laboratoire à la frontière technologique en 2026.

4. Que faire maintenant concrètement ?

🎯 Claude Mythos — Ce que cela change concrètement pour vous
💶
Pas d’accès immédiat pour les PME
Mythos sera très cher et réservé à un accès anticipé sélectif. Claude Sonnet 4.6 et Opus 4.6 restent vos références pratiques pour les prochains mois.
🔒
Vos pratiques de sécurité IA doivent évoluer maintenant
Les modèles IA vont rendre les cyberattaques plus rapides et accessibles. Double authentification, données sensibles hors des outils IA grand public — aucune entreprise n’est trop petite pour être ciblée.
📊
Anthropic prend la tête de la course aux modèles
Après la déception de GPT-5 en août 2025, Claude Mythos confirme qu’Anthropic est à la frontière technologique. C’est une bonne nouvelle pour quiconque utilise Claude dans ses outils métier.
⚙️
Auditez vos données IA dès cette semaine
La fuite d’Anthropic le rappelle : même les meilleures entreprises font des erreurs de config. Listez quelles données transitent dans vos outils IA, et mettez à jour vos règles internes.

D’abord, ne pas paniquer. Mythos n’est pas encore disponible et les risques évoqués concernent des acteurs très spécifiques. Ensuite, surveiller l’annonce officielle du modèle, qui devrait intervenir dans les prochaines semaines ou mois. Enfin, profiter de ce moment pour faire un audit rapide de vos pratiques IA actuelles : quelles données font l’aller-retour dans vos outils IA, qui dans votre équipe utilise quoi, et quel cadre vous avez mis en place pour encadrer ces usages.

L’ironie finale : une entreprise de sécurité IA qui n’a pas sécurisé ses propres données

Il serait impossible de conclure cet article sans mentionner ce que tout le monde a noté : l’ironie parfaite de la situation. Anthropic est l’entreprise qui se positionne comme la plus sérieuse, la plus responsable, la plus prudente dans le développement de l’IA. C’est elle qui a inventé le concept de « Constitutional AI », qui publie des Responsible Scaling Policies, qui organise des sommets privés pour convaincre les PDG européens de sa rigueur.

Et c’est cette même entreprise qui vient de laisser accessibles publiquement, pendant une durée indéterminée, les détails de son modèle le plus puissant, celui-là même qu’elle décrit comme présentant des risques cybersécurité sans précédent, à cause d’une simple erreur de configuration dans son système de gestion de contenu. Un CMS mal configuré. Pas une attaque sophistiquée. Pas une opération d’État. Un réglage par défaut mal ajusté.

La leçon pour les entrepreneurs est double. Premièrement, aucune entreprise, aussi avancée soit-elle techniquement, n’est à l’abri d’erreurs humaines basiques. Les processus comptent plus que les intentions. Deuxièmement, la transparence forcée par un accident peut parfois produire plus d’information utile qu’une communication maîtrisée. Ce que cette fuite révèle sur Anthropic, leurs ambitions, leurs craintes, leur stratégie commerciale en Europe, est probablement plus instructif que n’importe quel communiqué de presse officiel.

Claude Mythos existe. Il est probablement le modèle IA le plus puissant jamais construit à ce jour. Il pose des risques sérieux. Et son créateur vient d’en faire la démonstration de la façon la plus involontaire qui soit. L’IA continue d’avancer, avec ses promesses et ses ironies intactes.

─────────────────────────────────────────────────────────────────

Sources : Fortune (27 mars 2026), Techzine Global, CoinDesk, Futurism, WaveSpeed AI, LayerX Security, NeuralTrust AI, L’Express (29 mars 2026) | IABoosts.com

Mots-clés SEO : Claude Mythos Anthropic fuite 2026, Capybara nouveau modèle Claude, Anthropic modèle IA puissant cybersécurité, Claude Mythos risques entrepreneurs

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *