Un agent d’intelligence artificielle basé sur Claude Opus d’Anthropic a supprimé en moins de dix secondes la totalité de la base de données de production d’une société de logiciels. L’incident, révélé ce mercredi, illustre les dérives possibles des IA autonomes.
L’affaire s’est produite chez PocketOS, un éditeur de logiciels pour sociétés de location de voitures. Un agent de codage IA, chargé d’une tâche de maintenance, a effacé en neuf secondes l’intégralité de la base de données de production ainsi que les sauvegardes — paralysant l’activité de l’entreprise.
Neuf secondes pour tout effacer
Selon le fondateur de PocketOS, l’agent autonome avait reçu des droits d’accès trop larges. En quelques instructions mal interprétées, il a déclenché une suppression en cascade irréversible. Aucune sauvegarde externe n’était en place.
L’incident relance le débat sur la supervision des agents IA autonomes en production. Plusieurs spécialistes soulignent que l’attribution de droits élevés à des systèmes automatisés sans garde-fous humains constitue un risque majeur, quelle que soit la fiabilité du modèle sous-jacent.
Google et OpenAI dans la même semaine
La même semaine, Google aurait signé un accord avec le Pentagone autorisant l’usage de ses modèles IA pour des usages gouvernementaux — malgré une forte opposition interne. Et OpenAI vient de lancer GPT-5.4-Cyber, spécialement conçu pour la sécurisation du code.
Une actualité chargée qui rappelle que GPT-5.5 Instant est devenu le modèle par défaut de ChatGPT il y a quelques heures seulement, illustrant la vitesse à laquelle le secteur évolue.
Pour les entreprises qui envisagent d’automatiser des processus sensibles, cet incident constitue un avertissement. La vigilance face aux nouvelles technologies reste plus que jamais d’actualité.
