Aller au contenu principal
Conduire la croissance à grande échelle avec OpenAI o3, GPT-4.1, et CUA
BusinessOpenAI Blog45sem

Conduire la croissance à grande échelle avec OpenAI o3, GPT-4.1, et CUA

Résumé IASource uniqueImpact UE
Source originale ↗·

Unify, une plateforme GTM basée sur l'IA, exploite OpenAI's o3, GPT-4.1, et CUA pour automatiser le prospecting, la recherche et l'engagement. Grâce à des messages hautement personnalisés et un flux de travail continu, Unify permet aux équipes de générer des opportunités commerciales à grande échelle tout en se concentrant sur des interactions avec les clients à fort impact.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI met fin à sa relation exclusive avec Microsoft : ChatGPT s’ouvre à la concurrence
1Numerama 

OpenAI met fin à sa relation exclusive avec Microsoft : ChatGPT s’ouvre à la concurrence

OpenAI a annoncé la fin de son partenariat exclusif avec Microsoft à quelques heures de l'ouverture de son procès contre Elon Musk. Concrètement, l'entreprise créatrice des modèles GPT et de ChatGPT ouvre désormais ses services à l'ensemble des fournisseurs de cloud, sans restriction. Microsoft, qui détient 27 % du capital d'OpenAI après avoir investi environ 13 milliards de dollars, cessera par ailleurs de percevoir une part des revenus générés par le partenariat, perdant ainsi son statut de distributeur exclusif. Ce changement redistribue les cartes dans la guerre que se livrent les grands acteurs du cloud autour de l'IA générative. Google Cloud, Amazon Web Services ou encore Oracle pourront désormais proposer les modèles d'OpenAI à leurs clients, ce qui élargit considérablement la diffusion de ChatGPT et des API associées. Pour Microsoft, le coup est symboliquement fort : l'entreprise conserve sa participation au capital mais perd le levier commercial qui justifiait en partie la valorisation stratégique de son investissement. Cette décision intervient dans un contexte de tension croissante autour de la gouvernance d'OpenAI. Elon Musk, cofondateur de l'organisation, poursuit l'entreprise en justice en contestant sa transformation en entité commerciale à but lucratif, une évolution qui selon lui trahit la mission initiale de l'organisation. En rompant l'exclusivité avec Microsoft, OpenAI cherche à neutraliser l'argument selon lequel ses liens financiers avec un géant technologique compromettent son indépendance, tout en s'ouvrant à un marché beaucoup plus large.

UELes entreprises et développeurs européens utilisant les API OpenAI disposeront désormais de plus d'options d'accès via Google Cloud, AWS ou Oracle, réduisant la dépendance exclusive à Microsoft Azure.

BusinessOpinion
1 source
Neuro aide le secteur de la grande distribution nationale à exceller avec ChatGPT Business
2OpenAI Blog 

Neuro aide le secteur de la grande distribution nationale à exceller avec ChatGPT Business

Neuro utilise ChatGPT Business pour étendre ses activités à l'échelle nationale avec moins de soixante-dix employés, automatisant la rédaction de contrats et l'analyse des données clients. Cette approche réduit les coûts, gagne du temps et permet de transformer les idées en croissance.

BusinessActu
1 source
AWS approfondit sa collaboration avec OpenAI pour séduire les grandes entreprises
3Le Big Data 

AWS approfondit sa collaboration avec OpenAI pour séduire les grandes entreprises

Amazon Web Services et OpenAI ont annoncé le 28 avril 2026 un élargissement significatif de leur partenariat, avec l'intégration des derniers modèles d'OpenAI directement dans Amazon Bedrock, la plateforme d'IA managée d'AWS. Concrètement, les entreprises clientes d'AWS peuvent désormais accéder aux modèles OpenAI via les mêmes API et outils que ceux déjà utilisés pour Anthropic, Meta, Mistral AI ou Cohere, sans changer d'environnement ni multiplier les contrats. Dans la foulée, AWS a annoncé le lancement de Codex sur Bedrock, l'agent de développement logiciel d'OpenAI déjà utilisé par plus de 4 millions de personnes chaque semaine, ainsi que le déploiement des Amazon Bedrock Managed Agents, une couche d'orchestration pour automatiser des workflows complexes en production. Pour les grandes organisations, l'enjeu dépasse le simple accès à de nouveaux modèles. Ce qui change concrètement, c'est la possibilité d'utiliser l'IA d'OpenAI sans renoncer aux garanties de sécurité et de conformité d'AWS : gestion des accès via IAM, chiffrement des données, journalisation avec CloudTrail, connectivité sécurisée via PrivateLink. Ces couches de gouvernance, déjà en place pour d'autres modèles Bedrock, s'appliquent désormais aux modèles OpenAI sans reconfiguration. À cela s'ajoute un avantage financier non négligeable : les usages OpenAI peuvent être imputés directement aux engagements cloud AWS existants, évitant la multiplication des fournisseurs et des lignes budgétaires. Pour les directions techniques et achats des grandes entreprises, c'est précisément le type de friction qui bloquait le passage du pilote à la production à grande échelle. Cette annonce s'inscrit dans une compétition acharnée entre les grands clouds pour capter les budgets IA des entreprises. Azure bénéficie depuis plusieurs années d'une exclusivité de fait sur OpenAI via l'investissement de Microsoft, qui détient une participation estimée à plusieurs dizaines de milliards de dollars dans la startup. En ouvrant Bedrock aux modèles OpenAI, AWS brouille cette distinction et positionne sa plateforme comme un guichet unique multi-modèles, où l'entreprise choisit le meilleur outil pour chaque cas d'usage sans dépendre d'un fournisseur unique. Pour OpenAI, l'accord élargit considérablement sa distribution commerciale au-delà de l'écosystème Microsoft, à une clientèle enterprise déjà ancrée dans AWS. Les prochains mois diront si cette convergence accélère l'adoption de Codex dans les équipes de développement, un marché où GitHub Copilot d'Amazon et Microsoft se livrent déjà une bataille directe.

UELes entreprises européennes déjà clientes d'AWS peuvent désormais déployer les modèles OpenAI en production via leur infrastructure cloud existante, avec les couches de conformité AWS déjà en place, supprimant un frein réglementaire majeur à l'adoption à grande échelle.

BusinessOpinion
1 source
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires
4Next INpact 

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic a annoncé ce week-end de Pâques avoir atteint un chiffre d'affaires annualisé supérieur à 30 milliards de dollars, contre 9 milliards de dollars projetés en décembre 2025. Cette multiplication par plus de trois en un seul trimestre s'accompagne d'un doublement du nombre de clients entreprises dépensant plus d'un million de dollars par an : ils étaient 500 en février lors de la série G, ils sont aujourd'hui plus de 1 000. Cette annonce a été glissée dans une communication sur un nouvel accord pluriannuel avec Google et Broadcom, portant sur des infrastructures de calcul basées aux États-Unis. En février, Anthropic avait levé 3 milliards de dollars lors de cette série G sur une valorisation de 61 milliards. Pour la première fois, ces chiffres placeraient Anthropic devant OpenAI en termes de rythme de revenus. Le 31 mars, OpenAI déclarait générer 2 milliards de dollars par mois, soit une projection annuelle d'environ 24 milliards. L'écart, s'il est réel, représente un tournant symbolique majeur dans la course aux grands modèles de langage : Anthropic, fondée en 2021 par d'anciens d'OpenAI dont Dario et Daniela Amodei, aurait en moins de quatre ans rattrapé puis dépassé son rival direct sur le terrain commercial. Pour les investisseurs, qui cherchent à savoir si ces sociétés pourront un jour couvrir leurs colossales dépenses en infrastructures, la trajectoire compte autant que le chiffre absolu. Il faut néanmoins manier ces comparaisons avec prudence. L'indicateur mis en avant par Anthropic est un "run rate", c'est-à-dire une extrapolation : on prend les revenus sur une courte période favorable et on les annualise. Le résultat peut refléter un pic ponctuel plutôt qu'une tendance stable. OpenAI, de son côté, insiste sur la récurrence et la régularité de sa croissance, passant de 1 milliard par trimestre fin 2024 à 2 milliards par mois aujourd'hui. Au-delà de la bataille de chiffres, les enjeux sont concrets : Anthropic vient de restreindre les abonnements Claude pour pousser vers les API facturées au token, un signe que la monétisation s'intensifie. L'ensemble du secteur reste sous pression financière structurelle, les dépenses en GPU et en énergie étant considérables, et la question de la rentabilité réelle demeure entière pour les deux acteurs.

UELes entreprises europeennes abonnees a Claude pourraient etre affectees par la restriction des abonnements au profit de la facturation a l'usage, signalant une intensification de la monetisation des API IA sur le marche professionnel europeen.

BusinessOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour