Anthropic a annoncé mardi reporter la commercialisation de son nouveau modèle d’intelligence artificielle, Claude Mythos, après que celui-ci a lui-même repéré des milliers de vulnérabilités critiques dans des logiciels accessibles en ligne. Un report inédit dans un secteur où la course à la sortie s’est nettement accélérée.
L’annonce surprend par son angle. Ce n’est pas la concurrence, ni un régulateur, qui a poussé Anthropic à freiner — c’est son propre modèle.
Des milliers de failles « zero-day » détectées en interne
Lors de tests effectués avant tout déploiement public, Claude Mythos a identifié « des milliers » de vulnérabilités dites « zero-day » dans des programmes accessibles en ligne. Ces failles sont particulièrement dangereuses : leurs concepteurs et utilisateurs n’en ont pas conscience, ce qui les laisse ouvertes à toute exploitation malveillante.
Anthropic cite un cas concret. Un défaut repéré dans un logiciel vidéo avait été testé plus de cinq millions de fois par ses propres développeurs sans jamais être détecté. Mythos l’a trouvé.
« Les failles qu’il trouve sont souvent subtiles et difficiles à détecter », a prévenu l’entreprise. Sans intervention pour les colmater, elles offriraient à des pirates autant de portes d’entrée potentielles.
Un projet collaboratif baptisé « Glasswing »
Plutôt que de lancer Mythos immédiatement, Anthropic a choisi de le partager d’abord avec un cercle restreint de spécialistes. CrowdStrike, Palo Alto Networks, Amazon, Google, Nvidia, Apple et Microsoft font partie du groupe, aux côtés d’une quarantaine d’organisations spécialisées dans la conception et la maintenance de systèmes informatiques.
Ce programme, baptisé Glasswing, permettra à ces partenaires de travailler avec la version test de Mythos sur la sécurité informatique et de partager leurs résultats « pour qu’ils bénéficient à toute l’industrie ». Anthropic s’engage à leur fournir des capacités de calcul d’une valeur de 100 millions de dollars.
« Tout le monde doit se préparer à l’arrivée de pirates aidés par l’IA », a déclaré Lee Klarich, responsable de la technologie chez Palo Alto Networks.
Un outil de défense avant tout
Les chercheurs voient dans cette approche une opportunité majeure pour la cyberdéfense. « Jusqu’ici, la détection des failles était un procédé nécessitant beaucoup d’intervention humaine, avec une efficacité qui n’était pas très élevée », analyse Gang Wang, professeur d’informatique à l’université d’Illinois. « Mais avec l’IA qui travaille 24h sur 24, on peut faire de l’assainissement massif. »
« Les potentialités de l’IA ont franchi un seuil qui change fondamentalement le niveau d’urgence requis pour protéger les infrastructures », a renchéri Anthony Grieco, responsable de la sécurité chez Cisco.
Pour autant, la médaille a un revers. Selon Luka Ivezic, du Forum sur la sécurité de l’information, l’IA « abaisse le coût de détection d’une faille pour un cybercriminel et permet de démultiplier les tentatives », y compris pour des pirates de moindre calibre.
DeepSeek V4, le rival chinois d’Anthropic, suit de près ces développements — la course aux capacités cyber est désormais mondiale.
Un contexte politique tendu
Anthropic précise que Claude Mythos avait initialement été conçu comme un modèle généraliste, et non comme un outil dédié à la cybersécurité. « Notre but final reste de déployer Mythos à grande échelle, à des fins de cybersécurité mais aussi pour la myriade d’autres possibilités que ce modèle va offrir », a indiqué l’entreprise.
Avant cela, des garde-fous supplémentaires seront ajoutés pour « empêcher les utilisations les plus dangereuses ».
La start-up a également eu des échanges avec le gouvernement américain au sujet de Mythos — un dialogue qui s’inscrit dans un contexte délicat. L’administration Trump avait décrété fin février la rupture de tous les contrats la liant à Anthropic. Cette décision a été suspendue fin mars en référé par un tribunal fédéral, dans l’attente d’un examen au fond.
Un épisode qui rappelle que l’IA est devenue un enjeu géopolitique autant que technologique.





