Aller au contenu principal
OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
BusinessLe Big Data5h

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

1 source couvre ce sujet·Source originale ↗·

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ».

Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco.

La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

Impact France/UE

Les entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Le point de vue du dev

Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

À lire aussi

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne
1VentureBeat AI 

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne

Un post publié le 13 avril sur X par Steve Yegge, ancien ingénieur Google reconverti en directeur de l'ingénierie chez Sourcegraph, a déclenché une vive polémique dans la Silicon Valley. Yegge y relayait les propos d'un ami, ingénieur actuel chez Google, selon lesquels l'adoption interne de l'IA chez Google serait bien plus banale que ce que l'entreprise laisse entendre. Selon cette source anonyme, les équipes de Google suivraient une distribution classique : 20 % de refractaires à l'IA, 60 % d'utilisateurs intermédiaires cantonnés aux assistants de code basiques, et seulement 20 % d'ingénieurs véritablement engagés dans des workflows agentiques avancés. Le post a rapidement enflammé les réseaux, atteignant 4 500 likes, 458 commentaires et 1,9 million de vues en moins de 24 heures. L'ami en question aurait également affirmé que certains Googlers ne pouvaient pas utiliser Claude Code d'Anthropic, perçu en interne comme "l'ennemi", et que Gemini n'était pas encore à la hauteur pour les cas d'usage les plus avancés. La réaction du côté de Google a été immédiate et tranchante. Demis Hassabis, cofondateur et PDG de Google DeepMind, a répondu directement à Yegge : "Dis à ton ami de faire un vrai travail plutôt que de propager des absurdités. Ce post est complètement faux, du pur clickbait." Addy Osmani, directeur chez Google Cloud AI, a livré une réfutation plus détaillée, affirmant que "plus de 40 000 ingénieurs utilisent des outils de codage agentiques chaque semaine" et que les équipes ont accès à des modèles personnalisés, des CLIs et des MCPs maison. Il a précisé que les Googlers peuvent même utiliser les modèles d'Anthropic via Vertex AI, concluant que "Google est tout sauf dans la moyenne." L'ingénieure Jaana Dogan a abondé dans ce sens, décrivant un usage quasi continu des outils IA dans son environnement quotidien. L'écho considérable de ce débat s'explique en grande partie par le profil de Yegge : avec treize ans chez Google, des passages chez Amazon et Grab, il s'est construit au fil des années une réputation d'insider-outsider au franc-parler, dont les analyses circulent largement dans les milieux tech. Un mémo interne qu'il avait rédigé chez Google en 2011 avait fuité et fait le tour des médias spécialisés, lui conférant un statut particulier. La polémique s'inscrit dans un contexte plus large : alors que les grandes entreprises tech rivalisent de communication autour de leur adoption de l'IA, la question de ce qui se passe réellement derrière les portes devient un enjeu de crédibilité. Pour Google, dont Gemini est à la fois un produit stratégique et un outil interne, toute suggestion d'un usage tiède en interne touche directement à la cohérence de son discours public.

BusinessOpinion
1 source
L'énigme de l'explosion des startups d'annotation de données
2The Information AI 

L'énigme de l'explosion des startups d'annotation de données

Le secteur des startups spécialisées dans l'annotation de données et les environnements d'apprentissage par renforcement connaît une croissance spectaculaire, tant en chiffre d'affaires qu'en valorisation. Ces entreprises recrutent des experts en médecine, droit et ingénierie logicielle pour produire des données d'entraînement destinées aux grands modèles d'IA, allant jusqu'à recréer des copies fictives d'applications comme Salesforce ou Excel. Leurs contrats avec les grands laboratoires d'IA varient considérablement : des équipes individuelles ou des chercheurs négocient directement leurs propres accords, avec des montants allant de quelques centaines de milliers à plusieurs millions de dollars. Ce modèle permet à ces startups d'atteindre rapidement 10 millions de dollars de revenus annualisés en partant de zéro. Cette dynamique illustre à quel point les grands labs d'IA dépendent encore massivement de données humaines de haute qualité pour entraîner leurs modèles, malgré les promesses d'automatisation. Des acteurs comme Anthropic ont multiplié les partenariats avec différentes startups, tandis qu'OpenAI a opté pour une approche centralisée avec une équipe dédiée gérant les relations fournisseurs. Pour les professionnels recrutés, médecins ou juristes, ces missions représentent une source de revenus complémentaires significative, tandis que les startups bénéficient d'une croissance rapide sans avoir besoin de lourds investissements technologiques initiaux. Pourtant, le secteur présente une fragilité structurelle majeure : ces entreprises ne disposent d'aucun avantage concurrentiel durable. Leur modèle repose sur des contrats courts et fragmentés, sans fidélisation forte côté clients. La fragmentation même du marché, où chaque chercheur peut choisir son fournisseur, expose ces startups à une concurrence féroce et à une instabilité contractuelle chronique. À mesure que les techniques d'entraînement synthétique et d'auto-amélioration des modèles progressent, la fenêtre d'opportunité pour ces acteurs pourrait se refermer aussi rapidement qu'elle s'est ouverte, soulevant des questions sur leur capacité à pivoter ou à consolider leurs positions avant que la demande ne s'érode.

UELes professionnels européens qualifiés (médecins, juristes, ingénieurs) pourraient accéder à ces contrats d'annotation comme source de revenus complémentaires, mais le marché est structuré autour de laboratoires américains sans ancrage réglementaire ou économique particulier en France ou en UE.

BusinessOpinion
1 source
Scotiabank se prépare à son avenir avec l'IA
3AI News 

Scotiabank se prépare à son avenir avec l'IA

La banque canadienne Scotiabank a lancé Scotia Intelligence, un cadre unifié pour ses opérations de données et d'intelligence artificielle. Ce dispositif regroupe en une seule plateforme les environnements de calcul, les outils de gouvernance et les mécanismes de sécurité déjà en place au sein de l'établissement. Son volet opérationnel, Scotia Navigator, permet aux équipes internes, notamment celles en contact avec les clients, de construire et déployer leurs propres assistants IA dans le respect des règles de conformité de la banque. Les résultats annoncés sont concrets : les centres d'appels traitent désormais plus de 40 % des requêtes clients via l'IA, environ 90 % des courriels commerciaux entrants sont automatiquement redirigés, réduisant la charge manuelle de 70 %. Dans l'application mobile, des suggestions de paiement prédictives aident les clients à gérer leurs factures récurrentes et leurs virements. La banque a également publié un document sur l'éthique des données, qu'elle présente comme unique au Canada. L'enjeu dépasse la simple modernisation informatique : il s'agit de déployer l'IA à l'échelle d'un grand groupe financier sans créer de risques opérationnels ou réglementaires supplémentaires. Pour les équipes techniques, l'automatisation de la génération de code s'accompagne de contrôles de sécurité et d'auditabilité imposés par l'environnement réglementaire bancaire. Pour les employés, chaque usage de l'IA est soumis à une revue interne fondée sur des critères d'équité, de transparence et de responsabilité avant tout déploiement. Une formation obligatoire et des attestations annuelles complètent le dispositif. Tim Clark, directeur des systèmes d'information du groupe, souligne que l'objectif est de permettre aux collaborateurs d'utiliser la technologie avec confiance, tandis que Phil Thomas, directeur de la stratégie, y voit un levier pour recentrer les équipes sur des tâches à plus forte valeur ajoutée. Scotiabank s'inscrit dans une tendance lourde du secteur financier mondial, où les grandes banques cherchent à industrialiser l'IA tout en répondant aux exigences croissantes des régulateurs. La particularité de l'approche canadienne réside dans la formalisation publique de la gouvernance, une posture que peu d'établissements ont adoptée avant d'y être contraints. La banque reconnaît elle-même que l'architecture précise, les coûts, la stratégie de modèles et les benchmarks externes n'ont pas été divulgués, ce qui rend le retour sur investissement global difficile à évaluer. Scotiabank envisage néanmoins d'étendre le dispositif à des agents autonomes pour la recherche et l'analyse, avec des capacités décrites comme "plus autonomes, contextuelles et orientées vers l'action". Si les gains actuels se confirment, la banque devrait accélérer ce déploiement dans l'ensemble de ses métiers.

BusinessOpinion
1 source
Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?
4Le Big Data 

Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?

Anthropic a franchi le seuil des 30 milliards de dollars de revenus annualisés en avril 2026, dépassant ainsi OpenAI qui affiche environ 24 à 25 milliards selon les dernières estimations. Cette progression fulgurante repose en grande partie sur Claude Code, l'outil d'agent de codage développé par la startup, qui lui a permis de capter près d'un tiers des clients entreprise américains en mars 2026. En seulement quelques mois, Anthropic est passé de 9 milliards de dollars de revenus annualisés fin 2025 à plus de 30 milliards, soit une croissance de plus de 230 % en moins d'un an. Les deux entreprises, dont les revenus combinés dépassent désormais 50 milliards de dollars annualisés, préparent toutes deux une entrée en bourse prévue pour le second semestre 2026, ce qui en fait les deux IPO technologiques les plus attendues du moment. Ce duel redessine les priorités de tout le secteur. La clé de la croissance d'Anthropic réside dans sa concentration sur les usages professionnels, qui génèrent une consommation de tokens bien plus élevée que les applications grand public. Un nombre restreint d'entreprises clientes peut ainsi produire davantage de revenus qu'une large base d'utilisateurs occasionnels. OpenAI, longtemps porté par le succès massif de ChatGPT, ajuste désormais sa stratégie en réponse : l'entreprise met l'accent sur Codex et ses outils orientés développeurs, cherchant à maximiser la valeur générée par utilisateur plutôt que le volume d'adoption. Pour les investisseurs, cela signifie que la rentabilité par usage prime désormais sur la popularité brute, un changement de paradigme qui redéfinit les critères de valorisation dans l'ensemble de l'industrie. La rivalité entre les deux acteurs dépasse cependant le seul terrain commercial. Selon des analyses relayées par le Wall Street Journal, OpenAI aurait alerté ses propres investisseurs sur la dynamique concurrentielle d'Anthropic, signe d'une tension croissante entre les deux laboratoires. Cette guerre d'influence a déjà eu des répercussions sur les marchés : la montée en puissance d'Anthropic aurait contribué à une chute de près de 1 000 milliards de dollars de valorisation dans certains segments logiciels en février 2026. Les comparaisons financières directes restent toutefois complexes, des investisseurs comme ceux de Khosla Ventures soulignant que les méthodes comptables des deux entreprises divergent, notamment sur le traitement des commissions versées aux fournisseurs cloud. Alors que les deux IPO approchent, les capitaux disponibles risquent de se concentrer sur ces deux pôles dominants, laissant moins d'espace pour le reste de l'écosystème IA.

UELes deux IPO prévues au second semestre 2026 risquent de concentrer les capitaux disponibles autour d'Anthropic et OpenAI, réduisant les opportunités de financement pour les startups IA européennes.

💬 C'est Claude Code qui a renversé la table, pas une nouvelle version de modèle ou un lancement en fanfare. Des clients enterprise qui font tourner des agents toute la journée génèrent des revenus qu'une base de millions d'abonnés à 20 euros ne peut pas suivre, et ça, OpenAI l'a compris trop tard. Pour les startups IA en Europe, deux IPOs à 50 milliards cumulés vont concentrer les capitaux comme on n'a pas vu depuis longtemps.

BusinessOpinion
1 source