OpenAI débarque sur AWS : Microsoft perd son monopole

Stéphane Larue
Publié par
Stéphane Larue
Publié parStéphane Larue
Stéphane Larue est journaliste et éditeur indépendant spécialisé dans l actualité des médias, du divertissement et de la culture numérique. Fondateur du site stephanelarue.com, il assure...
5 Min de lecture
Image générée par IA

Le partenariat AWS-OpenAI annoncé le 28 avril 2026 marque un tournant majeur. Les modèles d’OpenAI, l’agent de codage Codex et une nouvelle offre de Managed Agents arrivent sur Amazon Bedrock, mettant fin à six années d’exclusivité avec Microsoft Azure.

Pendant des années, les entreprises françaises clientes d’Amazon Web Services devaient se résoudre à un choix cornélien dès qu’elles voulaient déployer GPT en production. Soit migrer une partie de leur infrastructure vers Microsoft Azure, soit renoncer à utiliser les modèles d’OpenAI. Cette parenthèse se referme.

Depuis le 28 avril, Amazon a officialisé l’arrivée d’OpenAI sur sa plateforme Bedrock. L’annonce, conjointe avec le laboratoire californien, ouvre une bascule attendue depuis des mois par les directions informatiques.

Trois nouveautés simultanées sur Amazon Bedrock

Le partenariat se matérialise par trois offres déployées le même jour. Les modèles frontier d’OpenAI deviennent accessibles via la même API que les clients Bedrock utilisent déjà pour Claude, Llama ou les modèles Mistral.

Vient ensuite Codex sur AWS, l’agent de programmation d’OpenAI. Il s’intègre directement dans les environnements de développement où les équipes enterprise construisent déjà leurs applications, sans passer par un cloud tiers.

La troisième brique, Amazon Bedrock Managed Agents, est sans doute la plus ambitieuse. Elle combine les modèles frontier d’OpenAI avec le harness d’agents maison du laboratoire, le tout hébergé sur l’infrastructure d’Amazon. Objectif affiché : un déploiement rapide d’agents capables d’exécuter des tâches longues avec un raisonnement plus fin.

La fin d’une exclusivité historique

Cette ouverture n’aurait pas été possible sans un changement de pied de Microsoft. Le géant de Redmond a accepté, quelques jours avant l’annonce d’AWS, de borner dans le temps son accord d’exclusivité signé en 2019. OpenAI peut désormais commercialiser ses produits sur n’importe quel cloud concurrent.

Selon les éléments publiés par TechCrunch, le contrat conclu avec Amazon avoisine les 50 milliards de dollars. Un montant qui en dit long sur la pression commerciale qui pesait sur OpenAI, dont une partie de la base clients réclamait depuis longtemps une alternative à Azure.

Ce que ça change pour les entreprises françaises

La France compte parmi les plus gros marchés européens d’AWS. Banques, assureurs, retailers, médias : la majorité des grands comptes hébergent leurs charges critiques sur Bedrock, S3 ou EC2. Jusqu’ici, intégrer GPT à un produit existant impliquait des passerelles complexes ou un déménagement partiel.

Avec Bedrock, l’appel à un modèle OpenAI devient une simple ligne dans une fonction Lambda. Pas de nouveau contrat de cloud, pas de nouveau service de paiement, pas de nouveau référent sécurité. Un argument décisif pour les DSI qui hésitaient encore à passer à l’échelle sur l’IA générative.

Les pure-players français de l’IA, à commencer par Mistral, présent lui aussi sur Bedrock, vont devoir composer avec une concurrence frontale. Le catalogue d’Amazon devient le supermarché de l’IA enterprise, où chaque éditeur se bat sur la qualité, le prix et la latence.

À retenir

  • OpenAI rejoint Amazon Bedrock après six ans d’exclusivité avec Microsoft Azure.
  • Trois offres simultanées : modèles, Codex et Managed Agents.
  • Le partenariat AWS-OpenAI atteint 50 milliards de dollars selon TechCrunch.

Une bataille du cloud loin d’être terminée

Le mouvement profite à Amazon, qui regagne du terrain face à un Azure dopé pendant six ans par l’avance d’OpenAI. Mais il accélère aussi la fragmentation du marché. Google Cloud héberge déjà Gemini, Anthropic et Mistral. AWS récupère désormais la totalité des grands modèles, à l’exception notable de Gemini.

Pour les entreprises, l’ère du choix unique est terminée. Les architectures multi-modèles, où chaque tâche est confiée au LLM le plus adapté, deviennent la norme. Une promesse de coûts mieux maîtrisés et de performances plus fines, mais aussi un casse-tête supplémentaire pour les équipes qui doivent désormais arbitrer en permanence entre une dizaine de fournisseurs.

Reste une question : combien de temps Microsoft pourra-t-il garder la main sur l’IA générative sans son partenaire historique ? La réponse, elle, viendra des prochains résultats trimestriels.

Partagez cet article
Publié parStéphane Larue
Follow:
Stéphane Larue est journaliste et éditeur indépendant spécialisé dans l actualité des médias, du divertissement et de la culture numérique. Fondateur du site stephanelarue.com, il assure une veille quotidienne sur les sujets d information générale, en s appuyant sur les sources officielles et les communiqués de presse. Il publie également des analyses, des interviews et des sélections éditoriales à destination d un large public.