Le PDG d'Anthropic, Dario Amodei, a émis des alertes sur la sécurité de son dernier modèle d'IA, Mythos, lors d'une conférence à New York le 3 décembre 2025. Ce qui a commencé le 7 avril, avec l'annonce d'Anthropic selon laquelle leur nouveau grand modèle de langage, Claude Mythos Preview, était jugé 'trop dangereux' pour être rendu accessible au grand public, a suscité des débats parmi les experts en cybersécurité. Certains se demandent si Mythos représente une avancée majeure ou s'il s'inscrit dans une tendance déjà inquiétante. Les acteurs financiers et les gouvernements prennent le risque au sérieux, conscient des enjeux.
Ce qu'il faut retenir
- Anthropic met en garde contre les dangers de son IA Mythos
- Les débats s'intensifient parmi les spécialistes en cybersécurité
- Mythos détecte des milliers de vulnérabilités avant même son lancement officiel
Qualités de détection des failles de sécurité
Le LLM Mythos se démarque par sa capacité à repérer les failles de sécurité. Anthropic affirme que Mythos a identifié 'des milliers' de vulnérabilités dans des logiciels dont les concepteurs n'avaient pas conscience avant son déploiement officiel. Par exemple, il a détecté un défaut dans un logiciel vidéo testé plus de cinq millions de fois sans que le problème soit remarqué par ses créateurs.
Projet Glasswing pour renforcer la cybersécurité
En réponse à ces découvertes, Anthropic a lancé le projet Glasswing en collaboration avec des géants technologiques tels qu'Amazon, Apple, Microsoft, ainsi que des entreprises spécialisées en cybersécurité comme CrowdStrike et Palo Alto Networks. L'objectif est de combler les failles de sécurité mises en lumière par Mythos pour renforcer la protection des systèmes informatiques.