
Agrandir les capacités comptables avec OpenAI
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

OpenAI a déployé GPT-5.4, comprenant GPT-5.4 Thinking et GPT-5.4 Pro, en réponse à la fuite de utilisateurs vers des produits concurrents comme Anthropic et Google. Cette mise à jour met l'accent sur l'utilité pour les tâches nécessitant de l'agence, notamment pour le travail de bureau. Il s'agirait du premier modèle spécifiquement conçu pour des tâches d'utilisation de l'ordinateur, capable d'envoyer des entrées clavier ou souris basées sur des captures d'écran périodiques de bureau ou d'applications.

Cisco et OpenAI redessinent l'ingénierie d'entreprise grâce à Codex, un agent d'IA intégré aux flux de travail pour accélérer les constructions, automatiser les corrections de défauts et faciliter le développement natif de l'IA.
UECisco et OpenAI transforment l'ingénierie d'entreprise en France via Codex, un agent d'IA intégré aux flux de travail, affectant des secteurs tels que le développement logiciel et la cybersécurité, en accélérant les constructions, en automatisant les corrections de défauts et en facilitant le développement natif de l'IA, tout en respectant le RGPD et l'AI Act.

OpenAI opère un virage stratégique marqué, abandonnant plusieurs initiatives jugées peu rentables pour se concentrer sur le marché des entreprises. L'application vidéo Sora est mise de côté, le projet de paiement intégré dans ChatGPT est abandonné, et la société recrute désormais des « ambassadeurs techniques » chargés de convaincre les entreprises d'adopter ses agents IA. Ce recentrage répond à une logique financière claire : rationaliser les coûts et accélérer la monétisation avant une prochaine introduction en Bourse. Le marché entreprise, plus stable et lucratif que le grand public, représente une source de revenus récurrents indispensable pour justifier les valorisations astronomiques d'OpenAI. OpenAI fait ainsi le deuil de son époque d'expérimentation tous azimuts, caractéristique des startups en hypercroissance, pour adopter la discipline d'une société qui doit bientôt rendre des comptes à des actionnaires publics.
UELes entreprises européennes utilisant ou envisageant d'adopter les outils OpenAI verront une offre enterprise renforcée, mais à des conditions tarifaires et contractuelles dictées par une logique de rentabilité pré-introduction en Bourse.

Amazon Web Services et OpenAI ont annoncé le 28 avril 2026 un élargissement significatif de leur partenariat, avec l'intégration des derniers modèles d'OpenAI directement dans Amazon Bedrock, la plateforme d'IA managée d'AWS. Concrètement, les entreprises clientes d'AWS peuvent désormais accéder aux modèles OpenAI via les mêmes API et outils que ceux déjà utilisés pour Anthropic, Meta, Mistral AI ou Cohere, sans changer d'environnement ni multiplier les contrats. Dans la foulée, AWS a annoncé le lancement de Codex sur Bedrock, l'agent de développement logiciel d'OpenAI déjà utilisé par plus de 4 millions de personnes chaque semaine, ainsi que le déploiement des Amazon Bedrock Managed Agents, une couche d'orchestration pour automatiser des workflows complexes en production. Pour les grandes organisations, l'enjeu dépasse le simple accès à de nouveaux modèles. Ce qui change concrètement, c'est la possibilité d'utiliser l'IA d'OpenAI sans renoncer aux garanties de sécurité et de conformité d'AWS : gestion des accès via IAM, chiffrement des données, journalisation avec CloudTrail, connectivité sécurisée via PrivateLink. Ces couches de gouvernance, déjà en place pour d'autres modèles Bedrock, s'appliquent désormais aux modèles OpenAI sans reconfiguration. À cela s'ajoute un avantage financier non négligeable : les usages OpenAI peuvent être imputés directement aux engagements cloud AWS existants, évitant la multiplication des fournisseurs et des lignes budgétaires. Pour les directions techniques et achats des grandes entreprises, c'est précisément le type de friction qui bloquait le passage du pilote à la production à grande échelle. Cette annonce s'inscrit dans une compétition acharnée entre les grands clouds pour capter les budgets IA des entreprises. Azure bénéficie depuis plusieurs années d'une exclusivité de fait sur OpenAI via l'investissement de Microsoft, qui détient une participation estimée à plusieurs dizaines de milliards de dollars dans la startup. En ouvrant Bedrock aux modèles OpenAI, AWS brouille cette distinction et positionne sa plateforme comme un guichet unique multi-modèles, où l'entreprise choisit le meilleur outil pour chaque cas d'usage sans dépendre d'un fournisseur unique. Pour OpenAI, l'accord élargit considérablement sa distribution commerciale au-delà de l'écosystème Microsoft, à une clientèle enterprise déjà ancrée dans AWS. Les prochains mois diront si cette convergence accélère l'adoption de Codex dans les équipes de développement, un marché où GitHub Copilot d'Amazon et Microsoft se livrent déjà une bataille directe.
UELes entreprises européennes déjà clientes d'AWS peuvent désormais déployer les modèles OpenAI en production via leur infrastructure cloud existante, avec les couches de conformité AWS déjà en place, supprimant un frein réglementaire majeur à l'adoption à grande échelle.
Recevez l'essentiel de l'IA chaque jour
Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.