La startup française Mistral AI a dévoilé le 2 mai 2026 son nouveau modèle phare, Mistral Medium 3.5. Au programme : 128 milliards de paramètres, un mode agentique inédit pour son assistant Le Chat et des sessions de code asynchrones dans le cloud. Une mise à jour qui positionne la pépite parisienne en challenger crédible face aux géants américains.
Un modèle 128 milliards de paramètres aux ambitions mondiales
Mistral Medium 3.5 est un modèle dense de 128 milliards de paramètres, doté d’une fenêtre de contexte de 256 000 tokens. Ce dernier chiffre lui permet de traiter des documents longs ou des bases de code entières en une seule passe — un avantage concret pour les développeurs et les équipes traitant de gros volumes d’information.
Le modèle gère en un seul jeu de poids le texte, le raisonnement et le code. Son encodeur de vision, entraîné depuis zéro, accepte des images de tailles et de formats variés sans recadrage forcé. L’effort de raisonnement est désormais paramétrable à la requête : une réponse rapide pour un échange conversationnel, un raisonnement approfondi pour une tâche complexe.
Côté accessibilité, Mistral Medium 3.5 peut s’auto-héberger sur seulement quatre GPU — un seuil nettement plus bas que ses concurrents de même catégorie, ce qui ouvre la porte aux entreprises qui souhaitent garder leurs données en interne.
Des performances qui bousculent la concurrence
Les benchmarks publiés par Mistral AI sont éloquents. Medium 3.5 score 77,6 % sur SWE-Bench Verified, le test de référence pour l’évaluation des capacités de correction de bugs et d’écriture de code — devançant Devstral 2 et le géant chinois Qwen3.5 397B A17B. Sur le benchmark agentique τ³-Telecom, il atteint 91,4, confirmant ses aptitudes sur des tâches enchaînées en plusieurs étapes.
Ces résultats placent Mistral dans une position inédite : celle d’un acteur européen capable de rivaliser avec les meilleurs modèles américains et asiatiques dans les catégories les plus compétitives. Pour rappel, GPT-5.5 d’OpenAI avait lui aussi bousculé les classements lors de son lancement fin avril 2026.
Work Mode : Le Chat devient un vrai assistant agentique
La nouveauté la plus attendue côté grand public est le Work Mode intégré à Le Chat, l’assistant conversationnel de Mistral. Alimenté par Medium 3.5, ce mode agentique permet à l’IA de travailler sur des tâches multi-étapes en appelant plusieurs outils en parallèle, sans attendre de validation à chaque étape.
Les cas d’usage sont concrets : faire le point sur ses emails et son calendrier en une seule requête, préparer un dossier de réunion avec contexte et résumés, ou encore lancer une recherche transversale sur des documents internes avant d’en exporter une synthèse. L’agent reste actif jusqu’à la complétion — même si l’utilisateur quitte la conversation entre-temps.
Cette approche rapproche Le Chat de ce que proposent des outils comme Google COSMO, dont la logique proactive avait été dévoilée début mai 2026, ou encore les assistants agentiques d’OpenAI.
Remote agents dans Vibe : le code qui tourne pendant votre pause
Pour les développeurs, Mistral Vibe s’enrichit d’agents distants asynchrones. Les sessions de code se déroulent désormais dans le cloud de Mistral : elles peuvent être lancées depuis l’interface en ligne de commande (CLI) ou directement depuis Le Chat, et continuent de tourner même si l’utilisateur se déconnecte.
Plusieurs agents peuvent s’exécuter en parallèle, chacun travaillant sur une tâche distincte. L’utilisateur peut inspecter en temps réel les diffs de fichiers, les appels d’outils et les états d’avancement. Une session CLI locale peut aussi être « téléportée » vers le cloud en cours de route, conservant son historique et son contexte.
Ce positionnement n’est pas sans rappeler la stratégie d’OpenAI sur AWS, qui cherche à déployer ses outils là où les développeurs travaillent déjà — signe que la bataille pour les workflows de développement est devenue un terrain de jeu majeur pour toutes les grandes IA.
À retenir
- Mistral Medium 3.5 est un modèle 128B avec 256k tokens de contexte, auto-hébergeable sur 4 GPU.
- Il score 77,6 % sur SWE-Bench Verified, devançant Qwen3.5 397B et Devstral 2.
- Le Work Mode dans Le Chat permet des tâches multi-étapes autonomes ; Vibe intègre des agents cloud asynchrones.
