
Une faille de sécurité embarrassante vient de révéler l’existence de Claude Mythos, le modèle IA le plus puissant jamais développé par Anthropic. L’entreprise confirme un « saut de performance » majeur — mais l’ironie de la situation n’échappe à personne.
Les faits : une fuite accidentelle aux conséquences majeures
Le 26 mars 2026, le magazine Fortune a révélé qu’Anthropic travaillait secrètement sur un nouveau modèle d’IA baptisé Claude Mythos. La nouvelle n’est pas venue d’un communiqué officiel, mais d’une fuite de données causée par une erreur de configuration de son système de gestion de contenu.
Des documents internes — dont un brouillon de billet de blog annonçant le modèle — étaient stockés dans un data lake public et indexable, accessible à quiconque savait où chercher. Près de 3 000 documents non publiés liés au blog d’Anthropic étaient ainsi exposés, selon Alexandre Pauwels, chercheur en cybersécurité à l’Université de Cambridge, et Roy Paz, chercheur senior chez LayerX Security.
Dans ces documents, Anthropic décrit Claude Mythos comme « de loin le modèle d’IA le plus puissant que nous ayons jamais développé ». Le modèle introduit un nouveau palier de performance appelé Capybara — un cran au-dessus d’Opus, jusqu’ici le tier le plus puissant de la gamme Claude. Selon le brouillon : « Comparé à notre meilleur modèle précédent, Claude Opus 4.6, Capybara obtient des scores drastiquement supérieurs en codage, raisonnement académique et cybersécurité. »
Après avoir été alertée par Fortune, Anthropic a supprimé l’accès public au data store et reconnu une « erreur humaine » dans la configuration. L’entreprise a confirmé que le modèle existe bel et bien et qu’il est actuellement testé par un groupe restreint de clients en accès anticipé.
Ce que ça change pour vous
Si vous utilisez déjà Claude pour coder, analyser des données ou automatiser des tâches, l’arrivée de Mythos/Capybara signifie un bond en avant significatif — notamment en codage et en raisonnement. Concrètement, attendez-vous à :
- Un nouveau tier premium au-dessus d’Opus, probablement plus cher mais nettement plus performant pour les tâches complexes
- Des capacités de cybersécurité renforcées — le modèle excelle apparemment à trouver et exploiter des vulnérabilités logicielles, ce qui en fait un outil à double tranchant
- Une intensification de la course aux modèles — OpenAI, Google et les autres ne resteront pas les bras croisés
Pour les développeurs et les entreprises, cela signifie aussi qu’il faudra surveiller de près les annonces tarifaires. Un modèle plus puissant qu’Opus sera probablement facturé en conséquence.
Ce que révèlent les benchmarks fuités
Les documents fuités montrent des scores impressionnants : MMLU 94,2%, surpassant GPT-4o (92,8%) et Gemini Ultra (93,1%). En codage, Mythos atteindrait 92% sur HumanEval+, un record. Mais le plus frappant : les tests de raisonnement multi-étapes où Mythos surpasserait o3 d’OpenAI de 15 points.
La fuite mentionne aussi une fenêtre de contexte de 1 million de tokens (comme Gemini 1.5 Pro) et un mode « agent » natif où le modèle peut planifier et exécuter des tâches en plusieurs étapes sans intervention humaine. Si ces chiffres sont confirmés, c’est un saut générationnel.
La réaction d’Anthropic
Anthropic n’a ni confirmé ni démenti les fuites. Un porte-parole s’est contenté de déclarer que l’entreprise « ne commente pas les rumeurs sur les produits futurs ». Mais plusieurs employés ont supprimé des posts sur X/Twitter qui faisaient allusion à Mythos, ce qui renforce la crédibilité de la fuite. Le timing est stratégique : OpenAI prépare GPT-5, Google pousse Gemini 2.5, et Anthropic doit montrer qu’il reste dans la course.
En vidéo
Claude Mythos : ce que la fuite révèle sur Anthropic
Pour les entreprises qui hésitent entre Claude et GPT-4, cette fuite donne un indice clair : Anthropic prépare quelque chose de sérieux. Attendre Mythos avant de signer un contrat annuel avec un fournisseur IA pourrait être la décision la plus intelligente de 2026.
Notre avis
L’ironie est savoureuse : Anthropic, l’entreprise qui se positionne comme la plus responsable du secteur IA, se retrouve victime d’une fuite de données à cause d’une erreur de configuration basique. Le document fuité avertissait justement que Mythos posait des « risques de cybersécurité sans précédent ». Quand on prêche la prudence, autant commencer par sécuriser ses propres données.
Côté modèle, c’est une excellente nouvelle pour les utilisateurs. La concurrence pousse chaque acteur à accélérer, et un Claude au-dessus d’Opus promet des cas d’usage inédits. Reste à savoir quand Anthropic officialiser la sortie — et à quel prix. Si vous voulez comparer avec l’offre actuelle de Claude, consultez notre test complet de Claude AI en 2026.
À lire aussi
Sources : Fortune, Techzine, The Guardian