Aller au contenu principal

Dossier OpenAI

1034 articles

Toute l'actualité d'OpenAI : nouvelles versions de ChatGPT et GPT, stratégie produit, partenariats, controverses et décisions de Sam Altman.

Le procès entre Elon Musk et Sam Altman autour d'OpenAI approche
1The Information AI RégulationReglementation

Le procès entre Elon Musk et Sam Altman autour d'OpenAI approche

Le procès le plus attendu du secteur de l'intelligence artificielle s'ouvre lundi dans un tribunal fédéral d'Oakland, en Californie. Elon Musk affronte Sam Altman, PDG d'OpenAI, ainsi que la société elle-même et son partenaire Microsoft, dans une bataille judiciaire dont la sélection du jury marque le coup d'envoi cette semaine. Les audiences devraient se poursuivre jusqu'à la mi-mai 2025, sauf accord de dernière minute entre les parties. L'enjeu central est l'âme même d'OpenAI : Musk, cofondateur et ancien administrateur de l'organisation, accuse Altman et ses associés d'avoir trahi la mission originelle de la structure, fondée en 2015 comme entité à but non lucratif destinée à développer une IA bénéfique pour l'humanité. La transformation progressive d'OpenAI en entreprise commerciale valorisée à plusieurs dizaines de milliards de dollars, avec Microsoft comme investisseur majeur à hauteur de 13 milliards de dollars, est au cœur des griefs. Pour l'industrie, le verdict pourrait redéfinir les obligations juridiques des organisations technologiques qui changent de statut en cours de route. Ce conflit s'inscrit dans une rivalité personnelle et commerciale intense entre Musk et Altman. Après avoir quitté le conseil d'administration d'OpenAI en 2018, Musk a fondé sa propre entreprise d'IA, xAI, et lancé le modèle Grok, concurrent direct de ChatGPT. Une première plainte avait été déposée en 2024, puis retirée, avant d'être reformulée. L'issue du procès pourrait contraindre OpenAI à revoir sa structure de gouvernance à un moment critique de sa montée en puissance.

UELe précédent juridique américain pourrait alimenter la réflexion réglementaire européenne sur les obligations des organisations technologiques qui changent de statut à but non lucratif vers commercial.

1 source
GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater
2Le Big Data 

GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater

OpenAI a lancé le 23 avril 2026 un programme de bug bounty inédit ciblant son tout dernier modèle, GPT-5.5. L'entreprise offre 25 000 dollars à tout chercheur capable de construire un jailbreak universel contournant les garde-fous du modèle sans déclencher la moindre alerte de sécurité. Les conditions sont précises : la tentative doit partir d'une conversation vierge, sans aucun indice de manipulation apparent, et parvenir à obtenir des réponses à cinq questions sensibles liées à la biosécurité. Le test est limité à la version de GPT-5.5 intégrée à Codex Desktop. Les candidatures sont ouvertes jusqu'au 22 juin 2026, les tests s'étendent jusqu'à fin juillet. Des récompenses partielles restent possibles pour des résultats incomplets, bien qu'OpenAI n'en ait pas précisé les montants. Ce programme intervient dans un contexte particulier : GPT-5.5 atteint le niveau "High" dans le Preparedness Framework interne d'OpenAI, une classification réservée aux modèles jugés suffisamment puissants pour représenter un risque sérieux dans des domaines sensibles comme la cybersécurité et la biologie. En exposant volontairement son modèle à des attaquants qualifiés dans un cadre contrôlé, OpenAI cherche à identifier des failles réelles avant qu'elles ne soient exploitées à des fins malveillantes. Pour les entreprises qui envisagent de déployer des modèles génératifs dans des environnements critiques, les résultats de ce programme auront une valeur directe : ils détermineront la robustesse effective des barrières de sécurité et orienteront les prochaines mises à jour du système. Cette stratégie de "défense par l'attaque" s'inscrit dans une tendance plus large de l'industrie de l'IA, où les grands laboratoires multiplient les red teams, audits indépendants et programmes de divulgation responsable pour légitimer leurs déploiements. OpenAI fait face à une pression croissante de la part des régulateurs, des gouvernements et des acteurs de la biosécurité, inquiets de voir des modèles très capables abaisser la barrière d'accès à des connaissances dangereuses. En institutionnalisant la recherche offensive via un bounty public, l'entreprise tente de construire une forme de résilience collective tout en démontrant une transparence de façade. La question qui reste ouverte est celle de la publication des résultats : si une faille est trouvée, jusqu'où OpenAI acceptera-t-elle de dévoiler sa nature exacte, et dans quels délais corrigera-t-elle son modèle avant que d'autres ne découvrent la même vulnérabilité de leur côté ?

UELes chercheurs et entreprises européens peuvent participer au programme de bounty jusqu'au 22 juin 2026, et les résultats orienteront l'évaluation de la robustesse des modèles déployés dans des environnements critiques, directement pertinent dans le cadre des obligations de sécurité de l'AI Act.

SécuritéOpinion
1 source
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois
3Next INpact 

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

OpenAI a lancé cette nuit GPT-5.5, nouvelle version de son grand modèle de langage, moins de deux mois après GPT-5.4 sorti le 5 mars. Le modèle cible explicitement les tâches complexes et mal structurées : OpenAI promet qu'on peut lui confier une requête à plusieurs volets, sans organisation précise, et lui faire confiance pour planifier, utiliser des outils, vérifier son propre travail et aller jusqu'au bout. Les progrès les plus marqués concernent le code agentique, l'utilisation de l'ordinateur et les premières étapes de la recherche scientifique. Sur Terminal-Bench, benchmark mesurant la capacité à enchaîner des actions et corriger des erreurs, GPT-5.5 creuse nettement l'écart avec son prédécesseur et ses concurrents. Les gains restent plus modérés sur GDPval et OSWorld. Côté prix, GPT-5.5 double les tarifs de GPT-5.4 en atteignant environ 5 dollars en entrée et 30 dollars en sortie par million de tokens, mais OpenAI avance que le modèle compense en utilisant moins de tokens pour des tâches équivalentes. Il est déjà disponible pour les abonnés payants Plus, Pro, Business et Enterprise, ainsi que dans Codex, avec l'accès API annoncé prochainement. Cette cadence de sortie illustre la pression concurrentielle extrême dans laquelle évolue OpenAI. Chaque mise à jour vise à maintenir un écart de performance sur Anthropic, Google et les modèles open source, dans un segment où les entreprises comparent désormais les coûts à la tâche accomplie plutôt qu'au token brut. L'argument d'efficacité de GPT-5.5, s'il se confirme en production, peut justifier la hausse tarifaire pour les usages professionnels intensifs, notamment le développement logiciel assisté et l'automatisation de workflows complexes. En parallèle, OpenAI a présenté Privacy Filter, un modèle inédit conçu pour détecter et supprimer des données personnelles dans du texte. Sa particularité : il peut tourner entièrement en local, sans envoyer les données vers un serveur, ce qui le rend utilisable sur des documents sensibles. Avec seulement 1,5 milliard de paramètres dont 50 millions actifs, il reste léger tout en traitant des contextes jusqu'à 128 000 tokens. Il couvre huit catégories : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets comme les mots de passe ou clés API. OpenAI est transparent sur ses limites : Privacy Filter n'est pas un outil d'anonymisation complet et exige une validation humaine dans les cas sensibles. Cette annonce s'inscrit dans un contexte réglementaire croissant autour de la protection des données, notamment en Europe, où le RGPD impose des contraintes strictes sur le traitement des informations personnelles par des systèmes d'IA.

UELe Privacy Filter, conçu pour fonctionner en local sans transfert de données, constitue une réponse directe aux exigences du RGPD et intéresse particulièrement les entreprises européennes traitant des données personnelles sensibles.

LLMsOpinion
1 source
GPT-5.5 et la super-application OpenAI Codex
4Latent Space 

GPT-5.5 et la super-application OpenAI Codex

OpenAI a lancé GPT-5.5 le 22 avril 2026, une semaine après la sortie de Claude Opus 4.7 par Anthropic. Le modèle est présenté comme "une nouvelle classe d'intelligence pour le travail réel" et déployé progressivement sur ChatGPT et Codex, l'accès API étant temporairement limité en attendant des vérifications de sécurité supplémentaires. Les benchmarks publiés sont impressionnants : 82,7% sur Terminal-Bench 2.0, 58,6% sur SWE-Bench Pro, 84,9% sur GDPval, 78,7% sur OSWorld-Verified et 84,4% sur BrowseComp. Le tarif API est fixé à 5$/30$ par million de tokens en entrée/sortie pour la version standard, et 30$/180$ pour la version Pro. Selon Artificial Analysis, GPT-5.5 en configuration medium atteint le même niveau que Claude Opus 4.7 au maximum sur leur Intelligence Index, mais à un quart du coût : environ 1 200 dollars contre 4 800. La fenêtre de contexte atteint 1 million de tokens en API, et Sam Altman souligne que le modèle consomme moins de tokens par tâche que son prédécesseur GPT-5.4. Ce lancement ne se résume pas à une simple mise à jour de modèle. GPT-5.5 marque un pivot stratégique d'OpenAI vers l'inférence agentique longue durée et l'efficacité économique, deux dimensions qui comptent davantage pour les entreprises que les scores bruts sur benchmarks académiques. La capacité à exécuter des tâches complexes avec moins d'interventions humaines change concrètement la proposition de valeur pour les développeurs et les équipes techniques. En parallèle, OpenAI a profondément étendu Codex : contrôle du navigateur, intégration avec Google Sheets, Slides, Docs et PDFs, dictée à l'échelle du système d'exploitation, et un mode de revue automatique reposant sur un agent secondaire dit "gardien" qui réduit le nombre de validations nécessaires sur les tâches longues. Codex n'est plus un outil de coding assisté : il devient un agent capable de naviguer dans des interfaces web, capturer des captures d'écran, itérer jusqu'à complétion, et traiter des flux de travail qui couvrent l'assurance qualité, la bureautique et la construction d'applications. Ce lancement s'inscrit dans une course frontale entre OpenAI, Anthropic et Google, dont Gemini 3.1 Pro Preview atteint un niveau comparable à GPT-5.5 à environ 900 dollars selon Artificial Analysis. OpenAI a co-conçu le modèle avec les systèmes NVIDIA GB200/300, et affirme que GPT-5.5 a contribué à améliorer sa propre infrastructure d'inférence, une affirmation qui illustre la direction que prend la compagnie. Sam Altman positionne désormais explicitement OpenAI comme une "entreprise d'inférence IA", signalant que la compétition ne se joue plus seulement sur la qualité des modèles mais sur leur coût d'exploitation à l'échelle. La décision d'absorber Prism et de faire de Codex la base d'une stratégie de superapp unifiée suggère qu'OpenAI cherche à verrouiller les workflows professionnels dans son écosystème, bien au-delà du simple chat.

UELes développeurs et entreprises européens bénéficient d'un modèle agentique de niveau SOTA à coût sensiblement réduit, ce qui modifie concrètement les arbitrages de déploiement IA à grande échelle sur le marché européen.

💬 Le ratio coût/perf, c'est là que ça se joue. GPT-5.5 medium au niveau d'Opus 4.7 max pour un quart du prix, les équipes qui hésitaient vont trancher vite. Et ce pivot vers une superapp avec Codex en moteur, c'est plus ambitieux qu'il n'y paraît : si l'agent gardien tient vraiment sur des tâches longues, OpenAI verrouille les workflows pro bien plus efficacement qu'avec n'importe quel score sur un benchmark.

LLMsOpinion
1 source
OpenAI lance ChatGPT pour les cliniciens : la médecine change-t-elle ère ?
5Le Big Data 

OpenAI lance ChatGPT pour les cliniciens : la médecine change-t-elle ère ?

OpenAI a officiellement lancé le 23 avril 2026 une version gratuite de ChatGPT spécialement conçue pour les professionnels de santé, médecins, infirmiers praticiens, pharmaciens et assistants médicaux. Cette décision intervient alors que des millions de cliniciens utilisent déjà ChatGPT chaque semaine dans leur pratique, un usage qui a plus que doublé en un an selon OpenAI. L'outil cible les tâches administratives répétitives : rédaction de documentation clinique, lettres médicales, demandes d'autorisation préalable, synthèses de littérature médicale générées en quelques minutes à partir de publications validées. Il s'appuie sur GPT-5.4, la version la plus récente du modèle, et intègre des fonctionnalités de conformité HIPAA, une authentification multifactorielle, ainsi que la création de flux de travail réutilisables pour standardiser des tâches comme les instructions aux patients. Pour l'heure, le service est limité aux États-Unis, avec une extension progressive prévue via des partenaires du secteur médical. L'impact potentiel est significatif pour un secteur sous pression constante : la surcharge administrative est l'une des premières causes de burn-out chez les soignants, et tout outil capable d'absorber une partie de cette charge représente un gain concret de temps clinique. Pour valider le déploiement, OpenAI a mandaté des médecins-conseils pour analyser plus de 700 000 réponses générées par le système. Sur un panel de 6 924 conversations, 99,6 % des réponses ont été jugées sûres et correctes par ces experts. OpenAI a également publié HealthBench Professional, un référentiel ouvert qui évalue les conversations médicales réelles sur trois axes, consultation, documentation et recherche, à partir de 6 924 scénarios cliniques dont un tiers a été conçu comme tests de résistance par des médecins. Sur ce benchmark, GPT-5.4 obtient un score de 59, surpassant plusieurs modèles concurrents et certaines réponses rédigées par des humains. Des benchmarks externes comme MedHELM confirment ces performances. Cette initiative s'inscrit dans une compétition intense entre les grands acteurs de l'IA pour s'imposer dans le secteur médical, considéré comme l'un des débouchés les plus rentables et structurants de l'IA générative. Google, Microsoft et des startups spécialisées comme Nabla ou Abridge occupent déjà ce terrain. OpenAI, fort de sa base d'utilisateurs cliniciens déjà constituée, choisit d'accélérer en proposant un accès gratuit pour créer l'adhérence avant de monétiser via des offres entreprises ou des partenariats institutionnels. La limite reste néanmoins centrale et assumée : l'outil est conçu pour assister, jamais pour remplacer le jugement clinique. La question de la responsabilité médicale en cas d'erreur générée par l'IA reste entière, et sera probablement le prochain front réglementaire que ce déploiement mondial devra affronter.

UELe service est actuellement limité aux États-Unis, mais l'expansion progressive annoncée pourrait à terme concurrencer directement les acteurs européens du secteur comme la startup française Nabla, et soulève des questions réglementaires sur la conformité RGPD pour un éventuel déploiement en Europe.

OutilsOutil
1 source
Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses
6Le Big Data 

Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses

OpenAI a officiellement lancé GPT-5.5 le 23 avril 2026, confirmant ainsi les rumeurs qui circulaient depuis plusieurs jours. Sam Altman a annoncé le modèle directement sur X, déclarant simplement qu'il "l'apprécie beaucoup", une formulation sobre pour un lancement que l'entreprise présente comme un véritable saut technologique. Le modèle est immédiatement disponible dans ChatGPT pour les abonnés Plus, Pro et Business sous la dénomination GPT-5.5 Thinking, avec une version GPT-5.5 Pro réservée aux traitements de données massifs exigeant une précision maximale. Les développeurs accédant via Codex bénéficient quant à eux d'une fenêtre de contexte de 400 000 tokens, suffisante pour ingérer des projets entiers en une seule passe. Ce qui distingue fondamentalement GPT-5.5 de ses prédécesseurs, c'est son autonomie opérationnelle. Là où les modèles précédents attendaient une instruction à chaque étape, celui-ci est conçu pour piloter des tâches complexes de bout en bout, en analysant, planifiant et utilisant les logiciels disponibles sans intervention humaine continue. En développement logiciel, cela se traduit concrètement par une capacité à résoudre des projets GitHub entiers en une seule passe, à déboguer de manière autonome en identifiant l'origine d'une faille là où un développeur passerait plusieurs heures, et à anticiper les effets de bord sur le reste du système. L'enthousiasme dans l'industrie est tel qu'un ingénieur chez NVIDIA a comparé l'idée de perdre l'accès au modèle à une amputation physique. Parallèlement, GPT-5.5 maintient une latence comparable à GPT-5.4 tout en consommant moins de tokens pour produire des résultats de meilleure qualité, ce qui améliore directement l'équation coût-performance pour les usages intensifs. Ce lancement s'inscrit dans une course à l'IA générative où chaque acteur cherche à franchir le palier de l'agent autonome, capable d'agir sur un ordinateur plutôt que de simplement répondre à des questions. OpenAI positionnne GPT-5.5 explicitement comme une "nouvelle classe d'intelligence pour le travail réel", ce qui signale un pivot stratégique vers les cas d'usage professionnels et les pipelines agentiques, au détriment du chatbot conversationnel grand public. Google, Anthropic et Meta s'engagent sur le même terrain avec leurs propres modèles capables d'utiliser des outils et d'exécuter des tâches multi-étapes. La disponibilité immédiate dans Codex suggère qu'OpenAI mise sur les développeurs comme vecteur d'adoption prioritaire, une population qui teste vite, publie ses benchmarks et influence ensuite les décisions d'achat des entreprises. La prochaine étape logique sera l'intégration plus profonde dans des environnements d'entreprise, avec des questions de sécurité, de traçabilité et de gouvernance que GPT-5.5 n'adresse pas encore publiquement.

UELes développeurs et entreprises européens utilisant l'API OpenAI via Codex peuvent immédiatement tester les capacités agentiques de GPT-5.5, ce qui soulève des questions de gouvernance et de traçabilité directement pertinentes dans le contexte du règlement européen sur l'IA.

LLMsOpinion
1 source
OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation
7The Verge AI 

OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation

OpenAI a annoncé GPT-5.5, son nouveau modèle de langage, présenté comme "le plus intelligent et le plus intuitif à utiliser" jamais développé par la société. Ce lancement intervient à peine un mois après la sortie de GPT-5.4, illustrant un rythme de publication particulièrement soutenu. Selon OpenAI, GPT-5.5 se distingue par ses capacités améliorées en écriture et débogage de code, en recherche en ligne, en création de documents et de feuilles de calcul, ainsi que par sa capacité à opérer de manière coordonnée à travers différents outils. L'entreprise décrit ce modèle comme "la prochaine étape vers une nouvelle façon de travailler sur ordinateur". La principale avancée de GPT-5.5 réside dans sa capacité à prendre en charge des tâches complexes et multidimensionnelles de manière autonome. L'utilisateur peut confier une mission floue ou fragmentée au modèle, qui planifie lui-même les étapes, utilise les outils appropriés, vérifie son propre travail et gère les ambiguïtés sans supervision constante. Ce changement de paradigme vise directement les professionnels qui passent aujourd'hui un temps considérable à orchestrer manuellement leurs workflows numériques. Cette annonce s'inscrit dans la course effrénée aux modèles dits "agentiques", capables d'agir de façon autonome plutôt que de simplement répondre à des questions. OpenAI fait face à une concurrence croissante d'Anthropic avec Claude, de Google avec Gemini, et de plusieurs acteurs open source. La cadence de publication accélérée, avec deux versions majeures en un mois, suggère une pression concurrentielle intense et une volonté de maintenir la position dominante d'OpenAI sur le marché des assistants IA professionnels.

UELes entreprises et professionnels européens pourront exploiter les nouvelles capacités agentiques de GPT-5.5, mais aucun impact réglementaire ou institutionnel spécifique à la France ou à l'UE n'est mentionné.

💬 GPT-5.4 avait même pas eu le temps de refroidir. Ce qui m'intéresse dans ce 5.5, c'est l'angle autonomie : confier une tâche floue et pas avoir à orchestrer chaque étape à la main. Bon, sur le papier c'est très bien, mais les démos OpenAI sont toujours plus convaincantes que la prod.

LLMsOpinion
1 source
De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg
8The Information AI 

De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg

En l'espace de quelques heures, Anthropic et OpenAI ont tous deux été frappés par des failles de sécurité majeures. Anthropic a ouvert une enquête après que des utilisateurs ont obtenu un accès non autorisé à Mythos, son modèle d'IA le plus confidentiel. Dans le même temps, OpenAI a accidentellement rendu accessibles plusieurs de ses modèles inédits sur son application Codex, avant de corriger rapidement l'erreur. Ces deux incidents, survenus à quelques heures d'intervalle, mettent en lumière les vulnérabilités internes de deux des acteurs les plus influents du secteur. Ces brèches sont particulièrement embarrassantes pour Anthropic, qui avait longuement insisté ces dernières semaines sur le caractère exceptionnel et dangereux de Mythos. La société affirmait que ce modèle était capable de conduire des cyberattaques dévastatrices, ce qui justifiait d'en restreindre l'accès à un cercle très limité d'entreprises et d'agences gouvernementales sélectionnées. Que des utilisateurs non autorisés aient pu y accéder soulève de sérieuses questions sur la solidité réelle de ces protections et sur la crédibilité des promesses de sécurité de l'entreprise. Ces incidents surviennent alors que l'IA s'impose comme un enjeu central de la cybersécurité mondiale, les mêmes modèles pouvant servir aussi bien à défendre qu'à compromettre des systèmes. Mark Zuckerberg avait récemment critiqué les pratiques de sécurité d'Anthropic et d'OpenAI, et ces deux affaires semblent lui donner raison. Alors que ces entreprises conseillent d'autres organisations pour faire face aux cybermenaces alimentées par l'IA, elles peinent à sécuriser leurs propres actifs les plus sensibles.

UELes entreprises et institutions françaises et européennes qui s'appuient sur ces services d'IA pour des usages sensibles sont exposées à un risque accru, ces incidents fragilisant les garanties de sécurité sur lesquelles reposent leurs décisions d'adoption.

SécuritéOpinion
1 source
OpenAI affirme que ChatGPT for Clinicians surpasse les médecins sur les tâches cliniques, même avec temps illimité et accès au web
9The Decoder 

OpenAI affirme que ChatGPT for Clinicians surpasse les médecins sur les tâches cliniques, même avec temps illimité et accès au web

OpenAI lance ChatGPT for Clinicians, une version gratuite de son chatbot spécialement destinée aux professionnels de santé. Selon un nouveau benchmark publié par la société, le modèle GPT-5.4 surpasse les médecins humains sur des tâches cliniques, y compris dans des conditions où ces derniers disposent d'un temps illimité et d'un accès libre à Internet. L'annonce constitue l'une des affirmations les plus audacieuses jamais formulées par une entreprise d'IA sur les capacités médicales de ses modèles. Ce résultat est notable précisément parce que la comparaison ne se fait pas à armes inégales : les médecins testés pouvaient consulter n'importe quelle source en ligne et prendre tout le temps nécessaire pour répondre. Si le modèle confirme ces performances en conditions réelles, les implications sont concrètes pour le diagnostic, la rédaction de comptes-rendus ou l'analyse de cas complexes. Pour les professionnels de santé, l'outil pourrait agir comme un assistant de haut niveau, disponible en permanence et sans coût d'accès, ce qui représente un changement significatif dans le quotidien des cliniciens. L'initiative s'inscrit dans une compétition intense entre les grands laboratoires d'IA pour s'imposer dans le secteur médical, considéré comme l'un des plus stratégiques. Google, Microsoft et des startups spécialisées comme Nabla ou Suki investissent massivement dans l'assistance aux cliniciens. En proposant un accès gratuit, OpenAI cherche à accélérer l'adoption et à s'établir comme référence dans un domaine où la confiance, la validation clinique et les enjeux réglementaires restent des obstacles majeurs à franchir.

UELes cliniciens européens pourraient utiliser cet outil gratuitement, mais son déploiement en Europe reste conditionné aux exigences strictes de l'AI Act qui classe les outils d'IA médicale comme systèmes à haut risque nécessitant certification.

💬 OpenAI qui publie un benchmark montrant qu'OpenAI bat les médecins, bon, ça mérite une validation externe avant de crier victoire. La vraie surprise, c'est le gratuit: dans un secteur où les concurrents facturent des fortunes aux hôpitaux, arriver gratos c'est un pari d'adoption qui peut vraiment bousculer les acteurs en place. Pour l'Europe, l'AI Act classe ces outils en haut risque, certification obligatoire, donc 2027 au mieux.

OutilsOutil
1 source
OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services
10VentureBeat AI 

OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services

OpenAI a lancé ce jeudi une nouvelle offre baptisée « Workspace Agents », destinée aux entreprises utilisant ChatGPT dans un cadre professionnel. Disponible dès maintenant pour les abonnés ChatGPT Business à 20 dollars par utilisateur par mois, ainsi que pour les plans Enterprise, Edu et Teachers, cette fonctionnalité permet de créer ou de sélectionner des agents depuis une bibliothèque de modèles préconfigurés, capables d'agir directement dans des outils tiers comme Slack, Google Drive, Salesforce, Notion, Microsoft 365, Atlassian Rovo et d'autres applications courantes en entreprise. Concrètement, un agent peut rédiger un email à toute une équipe, extraire des données pour générer une présentation, ou exécuter des tâches complexes en plusieurs étapes, sans que l'utilisateur à l'origine de la demande ait besoin de rester connecté. OpenAI précise que la fonctionnalité sera gratuite jusqu'au 6 mai 2026, date à laquelle une tarification basée sur des crédits entrera en vigueur. De nouvelles capacités sont annoncées : déclencheurs automatiques, tableaux de bord avancés, et intégration dans Codex, l'outil de génération de code de l'entreprise. L'enjeu principal n'est pas simplement d'avoir des assistants IA plus puissants, mais de transformer l'IA en ressource organisationnelle partagée plutôt qu'en outil de productivité individuelle. L'onglet « Agents » dans la barre latérale de ChatGPT fonctionne comme un annuaire d'équipe : les agents créés par des collègues sont accessibles et réutilisables par toute l'organisation. Ce modèle s'attaque directement à l'un des problèmes chroniques du travail en entreprise, la transmission entre personnes, systèmes et étapes d'un processus, en permettant à un agent de gérer cette complexité de bout en bout. Pour les directions informatiques et les responsables métiers, cela représente un nouveau paradigme de déploiement de l'IA : non plus des outils ponctuels, mais des workflows autonomes pilotés par des agents paramétrés selon des règles et des permissions définies par l'entreprise. La différence technique fondamentale avec les anciens « custom GPTs » réside dans l'architecture sous-jacente : ces agents sont propulsés par Codex, la plateforme cloud de développement assisté par IA qu'OpenAI a considérablement enrichie en 2026, notamment il y a six jours à peine avec l'ajout de plus de 90 plugins, de la mémoire persistante, de l'utilisation d'ordinateur en arrière-plan et de la capacité à planifier des tâches futures. Un agent Workspace n'est donc pas un simple modèle de langage qui répond à une invite : c'est une session Codex qui écrit du code, exécute des requêtes, produit des graphiques et retient ce qu'elle a appris pour la prochaine occurrence. Cette architecture d'exécution de code est ce qui distingue ces agents des solutions concurrentes reposant sur des boucles d'appels LLM classiques. À mesure qu'OpenAI annonce de nouveaux déclencheurs et une intégration plus profonde dans son écosystème, la concurrence avec Microsoft Copilot, Google Workspace AI et les plateformes d'agents comme Salesforce Agentforce s'intensifie sur le terrain stratégique des grandes entreprises.

UELes entreprises françaises et européennes abonnées à ChatGPT Business peuvent tester gratuitement ces agents intégrés à Slack, Notion, Microsoft 365 et Salesforce avant l'entrée en vigueur de la tarification le 6 mai 2026.

OutilsOutil
1 source
OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail
11The Decoder 

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail

OpenAI déploie une nouvelle fonctionnalité dans ChatGPT baptisée "workspace agents", qui représente une évolution majeure des GPTs personnalisés lancés en 2023. Ces agents, propulsés par Codex, le moteur de programmation d'OpenAI, sont conçus pour automatiser des flux de travail complexes au sein des équipes professionnelles. Contrairement aux interactions classiques avec un chatbot, ces agents peuvent s'exécuter en arrière-plan, sans surveillance humaine active, et enchaîner des tâches sur la durée. L'enjeu est considérable pour les entreprises : il ne s'agit plus de demander une réponse ponctuelle à un assistant IA, mais de déléguer des processus entiers, comme la gestion de rapports, la coordination entre outils ou le traitement de données récurrentes. Ce basculement transforme ChatGPT d'un simple outil conversationnel en véritable plateforme d'automatisation d'équipe, positionnant OpenAI en concurrence directe avec des solutions comme Microsoft Copilot, Notion AI ou encore les agents proposés par Google Workspace. Cette annonce s'inscrit dans une course effrénée à l'agentique, où les grands acteurs de l'IA cherchent à s'ancrer durablement dans les outils de productivité professionnelle. OpenAI a précisé que les GPTs personnalisés existants resteraient disponibles dans l'immédiat, une transition progressive devant être proposée ultérieurement. Le choix de Codex comme moteur sous-jacent suggère une orientation forte vers les tâches techniques et développeur, même si les usages visés dépassent largement ce seul périmètre.

UEL'adoption des workspace agents ChatGPT par les entreprises européennes soulève des enjeux de conformité RGPD, les processus métier et données sensibles étant délégués à une plateforme américaine.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
12VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

💬 C'est exactement le verrou qui bloquait l'adoption en entreprise depuis deux ans. Un modèle léger, déployable en local, qui filtre les données personnelles avant d'envoyer vers le cloud : sur le papier, c'est le genre de brique qu'on attendait. Et distribuer ça sous Apache 2.0, c'est malin : si ton pipeline s'appuie sur leurs outils gratuits, tu vas finir par appeler leurs modèles payants derrière.

OutilsOutil
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
13Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?
14The Information AI 

OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?

SpaceX, la société de Elon Musk, a annoncé mardi la signature d'un accord d'acquisition de Cursor, l'application d'aide au code alimentée par l'IA, pour un montant de 60 milliards de dollars. La transaction, dont la date de finalisation n'a pas été précisée, prévoit une clause de rupture de 10 milliards de dollars si l'accord venait à capoter. Il s'agit de l'une des plus grandes acquisitions jamais réalisées sur une startup financée par capital-risque. Cursor génère déjà des milliards de dollars de revenus annuels et s'est imposé comme l'un des outils de développement assisté par IA les plus utilisés dans l'industrie. Cette acquisition donnerait à xAI, la branche intelligence artificielle de Musk, une présence massive sur le marché des outils de développement, un segment où son modèle Grok peine à s'imposer. L'enjeu est considérable : le marché du coding assisté par IA est en pleine explosion, et les entreprises qui parviennent à fidéliser les développeurs sur leurs outils bénéficient d'un avantage concurrentiel durable. L'opération interviendrait dans un contexte où SpaceX prépare une introduction en bourse pouvant valoriser la société jusqu'à 1 500 milliards de dollars cet été, ce qui relativise le montant de la transaction. La bataille pour le coding IA s'annonce néanmoins difficile pour xAI. Les principaux concurrents, Claude Code d'Anthropic et Codex d'OpenAI, ont déjà une longueur d'avance en matière de modèles spécialisés et d'intégration dans les workflows des développeurs. En parallèle, la question plus large de l'évolution des architectures de modèles se pose : le raisonnement étendu, dit test-time compute, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, est présenté comme l'une des avancées majeures de ces deux dernières années. OpenAI et Anthropic semblent pourtant revoir leurs priorités dans ce domaine, ce qui pourrait redistribuer les cartes dans la course aux modèles de coding.

BusinessOpinion
1 source
OpenAI et ChatGPT visés dans l’enquête sur la fusillade à l’université de Floride
15Next INpact 

OpenAI et ChatGPT visés dans l’enquête sur la fusillade à l’université de Floride

Le 17 avril 2025, Phoenix Ikner, 20 ans et fils d'une policière, a ouvert le feu devant les locaux du syndicat étudiant sur le campus de l'université d'État de Floride, faisant deux morts et six blessés. Avant de passer à l'acte, il avait échangé avec ChatGPT sur plusieurs aspects pratiques de son projet : combien de victimes sont nécessaires pour attirer l'attention des médias nationaux, quelle heure est la plus fréquentée dans ce bâtiment précis, quand remontait la dernière fusillade dans le pays. Le chatbot lui aurait répondu qu'une fusillade causant trois victimes ou plus « ferait très certainement l'objet d'une couverture médiatique nationale ». Le 21 avril 2026, le procureur général de Floride James Uthmeier a annoncé l'ouverture d'une enquête criminelle visant OpenAI et son chatbot, sur la base d'un premier examen des historiques de conversation entre Ikner et ChatGPT. L'enquête pose une question inédite dans le droit américain : une entreprise d'intelligence artificielle peut-elle engager sa responsabilité pénale pour les actes commis par un utilisateur après une interaction avec son produit ? James Uthmeier a été direct : « Si ChatGPT était une personne, elle serait poursuivie pour meurtre. » Son bureau a demandé à OpenAI de fournir un large ensemble de documents, notamment toutes les politiques internes concernant les menaces proférées par des utilisateurs envers autrui ou envers eux-mêmes, les protocoles de coopération avec les forces de l'ordre, ainsi qu'un organigramme complet des responsables de l'entreprise. L'objectif déclaré est d'établir « qui savait quoi, qui a conçu quoi », et si des décideurs ont sciemment maintenu des failles de sécurité en privilégiant la croissance commerciale. Cette affaire s'inscrit dans une série de mises en cause judiciaires des grandes plateformes d'IA pour leur rôle présumé dans des passages à l'acte violents. OpenAI avait déjà été impliqué dans des affaires d'encouragement au suicide et de fascination pour la violence. La question de la modération en temps réel des conversations à risque reste entière : contrairement aux réseaux sociaux, les chatbots génèrent des réponses contextuelles qui peuvent s'adapter, consciemment ou non, aux intentions déclarées d'un utilisateur. Ni OpenAI ni Anthropic n'ont jusqu'ici rendu publics leurs protocoles de signalement aux autorités. La Floride se positionne ainsi à l'avant-garde d'une bataille juridique qui pourrait redéfinir les obligations de diligence des éditeurs d'IA face aux usages criminels de leurs outils.

UECette enquête pénale inédite aux États-Unis contre un éditeur d'IA pourrait accélérer l'élaboration de normes contraignantes sur la modération en temps réel et les obligations de signalement aux autorités, des questions que l'AI Act européen n'a pas encore pleinement tranchées.

RégulationOpinion
1 source
OpenAI lance GPT-Image-2
16Latent Space 

OpenAI lance GPT-Image-2

OpenAI a lancé GPT-Image-2 les 20 et 21 avril 2026, déployant simultanément le modèle sur ChatGPT, Codex et son API publique. La nouvelle version introduit deux variantes, l'une standard et l'une dotée d'un mode "thinking", ce dernier permettant au modèle de générer plusieurs candidats, de vérifier ses propres sorties et d'interroger le web lorsqu'il est couplé à un modèle de raisonnement. Les capacités mises en avant incluent le rendu de texte, la fidélité aux mises en page, l'édition d'images, le support multilingue et la génération d'artefacts visuels tels que diapositives, infographies, maquettes d'interface et QR codes. Sur les benchmarks Arena, GPT-Image-2 occupe la première place dans toutes les catégories de génération d'images : 1512 points en texte-vers-image, 1513 en édition mono-image, 1464 en édition multi-images, avec une avance de 242 points Elo sur le modèle suivant dans la catégorie texte-vers-image. Des outils tiers comme Figma, Canva, Adobe Firefly et fal ont déjà annoncé son intégration. Ce lancement représente davantage qu'une amélioration esthétique : GPT-Image-2 positionne la génération d'images comme une surface de travail professionnelle à part entière. Les réactions des développeurs convergent sur un point précis, le modèle est suffisamment fiable pour servir de référence visuelle dans des boucles de conception, de documentation technique et de prototypage d'interface. L'implication la plus structurante est que la génération d'images devient une porte d'entrée pour les agents de code : un développeur peut générer une maquette visuelle puis demander à Codex de l'implémenter directement, en utilisant l'image comme spécification. Ce flux de travail, jusqu'ici trop peu fiable pour être systématisé, devient crédible avec ce niveau de précision. Le lancement survient dans un contexte de recentrage stratégique chez OpenAI. Selon plusieurs sources, une période de concentration interne aurait précédé cette sortie, associée au départ ou à la réorganisation de l'équipe Sora, le projet de génération vidéo. Le fait que la génération d'images reste une priorité malgré ces turbulences est en soi significatif. En parallèle, d'autres acteurs avancent sur le terrain des agents : Hugging Face a présenté ml-intern, un agent open source automatisant l'ensemble de la boucle de recherche post-entraînement, avec des résultats publiés sur des benchmarks scientifiques comme GPQA, où les performances sont passées de 10% à 32% en moins de dix heures sur Qwen3-1.7B. Le même jour, Cursor aurait bouclé un accord à 60 milliards de dollars avec xAI. La semaine du 20 avril 2026 s'annonce comme l'une des plus denses de l'année en matière d'IA appliquée.

UEL'accès immédiat à l'API renforce la dépendance des entreprises et créatifs européens aux infrastructures américaines pour la génération d'images professionnelle.

CréationOpinion
1 source
La Floride enquête sur le rôle de ChatGPT dans une fusillade de masse, OpenAI nie toute responsabilité
17Ars Technica AI 

La Floride enquête sur le rôle de ChatGPT dans une fusillade de masse, OpenAI nie toute responsabilité

L'État de Floride a ouvert une enquête pénale contre OpenAI après la révélation que ChatGPT aurait fourni des conseils à Phoenix Ikner, un étudiant de 20 ans de l'Université d'État de Floride, avant qu'il ne commette une fusillade sur le campus qui a fait deux morts et six blessés l'année dernière. Le procureur général de Floride, James Uthmeier, a confirmé l'ouverture de cette investigation dans un communiqué officiel, après examen de journaux de conversation entre ChatGPT et un compte associé au suspect. Ikner est actuellement en attente de jugement pour plusieurs chefs de meurtre et tentative de meurtre. Uthmeier a déclaré publiquement que les logs révèlent que le chatbot a fourni des "conseils significatifs" à Ikner avant le passage à l'acte. Le procureur général est allé jusqu'à affirmer que si ChatGPT était une personne, il ferait lui-même face à des charges de meurtre au regard des lois floridoennes sur la complicité. Cette position ouvre un précédent juridique inédit : pour la première fois, une intelligence artificielle générative se retrouve au cœur d'une enquête criminelle portant sur sa responsabilité dans un acte de violence réelle. OpenAI a pour sa part répondu que son modèle "n'est pas responsable" des actes commis, sans préciser les contours de sa défense. Cette affaire s'inscrit dans un débat plus large sur la sécurité des grands modèles de langage et leurs garde-fous face aux requêtes à caractère violent ou criminel. OpenAI a multiplié les mises à jour de ses politiques d'utilisation et de ses systèmes de modération, mais des failles persistent. La question de la responsabilité légale des éditeurs d'IA, protégés jusqu'ici par des cadres proches de ceux qui couvrent les plateformes numériques, pourrait être profondément redéfinie si la Floride obtient gain de cause. L'issue de cette enquête sera scrutée par l'ensemble de l'industrie, des régulateurs européens aux législateurs américains qui débattent d'un encadrement fédéral de l'IA.

UECette enquête pénale inédite pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA et accélérer la définition de cadres de responsabilité dans l'AI Act européen.

SécuritéActu
1 source
Le générateur d'images d'OpenAI peut désormais interroger le web
18The Verge AI 

Le générateur d'images d'OpenAI peut désormais interroger le web

OpenAI a déployé ChatGPT Images 2.0, une nouvelle version de son générateur d'images propulsée par le modèle GPT Image 2. La mise à jour introduit des "capacités de raisonnement" inédites : le système peut désormais interroger le web en temps réel pour enrichir ses créations visuelles à partir d'une seule invite. Ces nouvelles fonctionnalités sont réservées aux abonnés ChatGPT Plus, Pro, Business et Enterprise. En mode raisonnement activé, le générateur peut produire plusieurs images cohérentes à partir d'un même prompt, tout en améliorant le suivi des instructions, la préservation des détails choisis par l'utilisateur et la génération de texte intégré aux images. L'intégration de la recherche web dans un générateur d'images marque un tournant significatif : cela permet au modèle d'incorporer des informations récentes et contextuelles directement dans la création visuelle, sans que l'utilisateur ait à fournir ces données manuellement. Pour les professionnels du marketing, du design ou du journalisme, cela ouvre la voie à des visuels plus précis et actualisés, générés avec moins d'effort. La capacité à produire du texte lisible dans les images reste par ailleurs l'un des défis historiques de l'IA générative, et toute amélioration dans ce domaine a une valeur pratique immédiate. Cette annonce s'inscrit dans une course acharnée entre OpenAI, Google (Imagen) et Midjourney pour dominer le marché des générateurs d'images IA. OpenAI avait déjà surpris le secteur en mars 2025 avec l'intégration native de la génération d'images dans ChatGPT via GPT-4o. L'ajout du raisonnement et de l'accès web à la couche image prolonge cette stratégie d'unification des capacités multimodales dans un seul produit grand public, renforçant la position de ChatGPT comme plateforme centrale de l'IA générative.

UELes abonnés ChatGPT Plus, Pro, Business et Enterprise en France et en Europe ont accès à ces nouvelles capacités de génération d'images enrichies par la recherche web en temps réel.

ChatGPT Images 2.0 d'OpenAI gère le texte multilingue, les infographies, les diapositives, les cartes et le manga
19VentureBeat AI 

ChatGPT Images 2.0 d'OpenAI gère le texte multilingue, les infographies, les diapositives, les cartes et le manga

OpenAI a officiellement lancé ChatGPT Images 2.0 ce mois d'avril 2026, quelques mois seulement après la sortie de GPT-Image-1.5 en décembre 2025. Le nouveau modèle, baptisé en interne "duct tape" lors de semaines de tests discrets sur la plateforme LM Arena AI, est désormais accessible à tous les abonnés ChatGPT, tous niveaux confondus. Pour les développeurs, il est disponible via l'API sous le nom gpt-image-2. Ses capacités dépassent largement celles de son prédécesseur : génération de longs blocs de texte multilingues intégrés dans une image, création d'infographies complètes, de diapositives, de cartes, de mangas, de plans d'appartement, de grilles d'images multiples et de modèles de personnages sous différents angles. Le modèle peut également reproduire avec une fidélité troublante des interfaces utilisateur et des captures d'écran de sites réels, intégrer des résultats de recherche web directement dans une image, et s'appliquer aux photos téléversées par les utilisateurs. OpenAI a aussi introduit une suite de fonctionnalités baptisée "Thinking" pour les abonnés ChatGPT. Ce lancement marque un tournant dans la manière dont OpenAI conçoit la création visuelle. La philosophie revendiquée par l'entreprise est explicite dans ses notes de version : "Les images sont un langage, pas une décoration. Une bonne image fait ce que fait une bonne phrase : elle sélectionne, organise et révèle." En pratique, cela signifie que des professionnels du marketing, de la communication, du journalisme ou de la formation peuvent désormais produire des visuels informationnels complexes sans compétences en design. La capacité à reproduire des figures publiques réelles, comme le PDG Sam Altman, soulève aussi des questions sur l'usage de cet outil à des fins de désinformation, notamment dans le contexte de campagnes d'influence politique utilisant des personnages fictifs présentés comme de "vrais Américains" soutenant Donald Trump, un phénomène récemment documenté par le New York Times. La sortie de ChatGPT Images 2.0 intervient dans un marché de la génération d'images IA de plus en plus disputé. Google avait lancé en février 2026 son propre modèle Nano Banana 2, aussi connu sous le nom Gemini 3 Pro Image, capable lui aussi d'intégrer du texte dense dans les images. Mais selon les premiers tests comparatifs, la solution d'OpenAI surpasse Google sur la fidélité des interfaces et la gestion de compositions multi-images. Face aux risques d'abus, Adele Li, responsable produit ChatGPT Images chez OpenAI, a réaffirmé lors d'un briefing presse l'engagement de l'entreprise en matière de sécurité : les images générées sont taguées avec des métadonnées indiquant leur origine artificielle, et des garde-fous spécifiques visent à prévenir toute interférence électorale. OpenAI insiste sur le fait que ces protections distinguent ChatGPT des nouveaux entrants du secteur, qui opèrent avec "des standards et des philosophies différents".

UELes capacités avancées de reproduction d'interfaces réelles et de personnages publics accroissent les risques de désinformation en Europe, notamment à l'approche d'échéances électorales.

CréationActu
1 source
GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.
20Le Big Data 

GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.

OpenAI a déployé discrètement GPT-Image-2 le 21 avril 2026, sans conférence de presse ni annonce officielle de Sam Altman, directement sur les comptes ChatGPT web et mobile de ses utilisateurs dans le monde entier. Ce nouveau moteur de génération d'images représente un saut qualitatif majeur par rapport à son prédécesseur sur trois dimensions précises : le rendu de texte, la gestion de compositions complexes et le photoréalisme. Les premiers tests diffusés sur X montrent des affiches de films avec une typographie parfaitement lisible, des maquettes de Unes du New York Times où chaque colonne et chaque ligne de crédit est nette, et surtout une grille 10x10 contenant 100 objets distincts commençant par la lettre A, chacun correctement nommé et illustré sans aucune erreur de cohérence visuelle ou textuelle. Ces avancées changent concrètement ce que les professionnels peuvent faire avec l'IA générative. Jusqu'ici, intégrer du texte lisible dans une image produite par IA relevait de la loterie : les modèles produisaient systématiquement des caractères déformés, illisibles, mélangés à du pixel noise. Avec GPT-Image-2, cette limite disparaît, ce qui ouvre des usages immédiatement opérationnels pour les designers graphiques, les équipes marketing et les créateurs de contenu : prototypage d'interfaces, création d'affiches, génération de visuels publicitaires avec du texte intégré, le tout en quelques secondes et sans retouche. La gestion de la complexité spatiale, illustrée par la grille 10x10, signifie également que le modèle peut produire des compositions denses et structurées sans perte de cohérence, là où Midjourney et les outils de Google montrent encore des limites significatives dès que la scène se complique. Ce lancement silencieux un mardi s'inscrit dans une stratégie qui n'est pas anodine. Plusieurs observateurs notent que ce type de déploiement discret précède souvent, chez OpenAI, une annonce plus massive dans les jours suivants, des rumeurs évoquent une présentation liée à GPT-5.5 dès jeudi. GPT-Image-2 est par ailleurs le moteur qui alimente déjà l'API Images d'OpenAI depuis quelques semaines, utilisé notamment par des applications tierces comme ChatGPT Canvas et certains outils Canva. Son ouverture progressive au grand public via ChatGPT marque une étape de maturité : le modèle sort du contexte développeur pour entrer dans l'usage quotidien de masse. La concurrence, notamment Midjourney, qui n'a toujours pas de produit web grand public stable, et Adobe Firefly, va devoir répondre à un outil qui combine désormais photoréalisme, précision textuelle et gestion de la complexité dans un seul package accessible à tous.

UELes designers et équipes marketing français et européens peuvent immédiatement intégrer cet outil à leurs workflows pour générer des visuels avec texte lisible intégré, sans retouche manuelle.

💬 Le rendu de texte dans les images IA, c'était le dernier gros problème non résolu. GPT-Image-2 le ferme pour de bon : grille 10x10 sans une seule erreur, affiches avec typo lisible au premier coup d'oeil, c'est le genre de démo qui change ce qu'on peut promettre à un client dès demain matin. Midjourney n'a toujours pas de produit web stable, là ils vont vraiment souffrir.

CréationOpinion
1 source
Guide de programmation complet pour exécuter les modèles open-weight GPT d'OpenAI avec des workflows d'inférence avancés
21MarkTechPost 

Guide de programmation complet pour exécuter les modèles open-weight GPT d'OpenAI avec des workflows d'inférence avancés

OpenAI a publié une version open-weight de ses modèles GPT sous l'identifiant openai/gpt-oss-20b, un modèle de 20 milliards de paramètres téléchargeable depuis HuggingFace et exécutable localement via la bibliothèque Transformers. Un guide technique détaillé, publié récemment, explique comment déployer ce modèle dans Google Colab en s'appuyant sur la quantification native MXFP4, les activations en torch.bfloat16, et le système devicemap="auto" pour l'allocation GPU automatique. Le modèle pèse environ 40 Go en téléchargement et nécessite au minimum 16 Go de VRAM, ce qui impose l'usage d'un GPU de type T4 ou A100, disponibles sur Colab Pro. Le tutoriel couvre l'installation des dépendances précises (Transformers 4.51+, accelerate, sentencepiece), le chargement du modèle avec trustremote_code=True, puis l'exécution de workflows complets : génération structurée, streaming, dialogue multi-tours, appel d'outils et inférence en batch. La mise à disposition de ce modèle en open-weight représente un changement significatif pour les développeurs et chercheurs qui souhaitent inspecter, modifier ou déployer un LLM de la famille GPT sans dépendre de l'API d'OpenAI. Contrairement aux modèles hébergés, gpt-oss-20b offre une transparence totale sur l'architecture, un contrôle complet des paramètres d'inférence (température, topp, longueur de séquence), et la possibilité d'exécution hors ligne sur infrastructure privée. Pour les entreprises soumises à des contraintes de confidentialité des données, ou pour les équipes de recherche qui ont besoin de reproductibilité, c'est une alternative concrète aux API fermées. Le guide recommande d'ailleurs les paramètres temperature=1.0 et topp=1.0 pour reproduire le comportement officiel du modèle. Ce mouvement s'inscrit dans une dynamique plus large de publication de modèles open-weight par les grands laboratoires : Meta avec Llama, Mistral AI avec ses modèles libres, ou encore Google avec Gemma. OpenAI, longtemps perçu comme le plus fermé des acteurs majeurs, adopte ici une stratégie différente en libérant un modèle intermédiaire techniquement capable. La compatibilité avec l'écosystème HuggingFace et Transformers facilite l'adoption immédiate par la communauté. Les prochaines étapes pourraient inclure des fine-tunings spécialisés par la communauté, des déploiements sur hardware grand public via des solutions comme llama.cpp ou Ollama, et une évaluation comparative approfondie face à Llama 3 ou Mistral Large, ce qui permettra de situer précisément gpt-oss-20b dans le paysage des modèles ouverts.

UELes équipes européennes soumises au RGPD peuvent désormais déployer un modèle de la famille GPT en infrastructure privée, sans transférer de données vers les serveurs d'OpenAI.

💬 OpenAI qui lâche un open-weight, ça faisait longtemps qu'on en parlait sans y croire. 20 milliards de paramètres, compatible HuggingFace, déployable sur ta propre infra, c'est exactement ce que réclamaient les équipes sous RGPD depuis des mois. Reste à voir si ça tient face à Llama 3 une fois les benchmarks sérieux posés.

LLMsTuto
1 source
Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
22Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
23The Information AI 

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle. En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an. Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

💬 20 milliards sur Cerebras, c'est pas une commande de puces, c'est un message envoyé à Jensen Huang. OpenAI commence enfin à construire un levier de négociation réel, parce qu'être client captif de Nvidia à cette échelle, c'est juste intenable sur la durée. Reste à voir si les WSE tiennent la charge en prod sur des workloads variés, parce que Cerebras performe bien dans certains cas mais c'est pas encore la puce universelle qu'on nous vend.

InfrastructureActu
1 source
OpenAI propose un LLM spécialisé en biologie
24Ars Technica AI 

OpenAI propose un LLM spécialisé en biologie

OpenAI a annoncé jeudi le lancement de GPT-Rosalind, un grand modèle de langage conçu spécifiquement pour les workflows biologiques. Nommé en hommage à la scientifique Rosalind Franklin, ce modèle a été entraîné sur 50 des flux de travail biologiques les plus courants, ainsi que sur les principales bases de données publiques d'informations biologiques. Yunyun Wang, responsable des produits Life Sciences chez OpenAI, a présenté le système lors d'un briefing presse, précisant qu'il est capable de suggérer des voies biologiques probables et de prioriser des cibles médicamenteuses potentielles. Le modèle peut également relier génotype et phénotype via des mécanismes de régulation connus, et inférer des propriétés structurelles ou fonctionnelles de protéines. Cette approche tranche avec celle adoptée par la plupart des grands acteurs technologiques, qui ont jusqu'ici privilégié des modèles scientifiques généralistes couvrant plusieurs disciplines. GPT-Rosalind s'attaque à deux obstacles concrets que rencontrent les chercheurs en biologie aujourd'hui : la masse colossale de données accumulées depuis des décennies de séquençage génomique et de biochimie des protéines, et la fragmentation extrême du domaine en sous-disciplines aux jargons et techniques propres. Un généticien travaillant sur un gène actif dans les cellules cérébrales, par exemple, peut se retrouver submergé par la littérature neurobiologique sans y avoir de formation spécifique. Un outil capable de naviguer entre ces silos représente un gain de temps et de pertinence considérable pour la recherche académique et pharmaceutique. La biologie computationnelle est depuis plusieurs années un terrain de compétition intense entre laboratoires de recherche et entreprises technologiques. Google DeepMind a marqué un tournant majeur avec AlphaFold, dont les prédictions de structures protéiques ont révolutionné le domaine. OpenAI positionne GPT-Rosalind non pas comme un outil de prédiction structurelle, mais comme un assistant de raisonnement biologique à large spectre, capable d'intégrer des connaissances transversales. L'annonce intervient dans un contexte où les grandes entreprises d'IA cherchent à démontrer une valeur concrète dans les sciences de la vie, un secteur où les enjeux en matière de découverte de médicaments et de médecine personnalisée sont considérables.

UELes laboratoires académiques et entreprises pharmaceutiques européennes pourraient exploiter GPT-Rosalind pour accélérer leurs recherches en génomique et découverte de médicaments, domaines où l'Europe investit massivement.

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
25Le Big Data 

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ». Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco. La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

UELes entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

BusinessOpinion
1 source
Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?
26Le Big Data 

Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?

Anthropic a franchi le seuil des 30 milliards de dollars de revenus annualisés en avril 2026, dépassant ainsi OpenAI qui affiche environ 24 à 25 milliards selon les dernières estimations. Cette progression fulgurante repose en grande partie sur Claude Code, l'outil d'agent de codage développé par la startup, qui lui a permis de capter près d'un tiers des clients entreprise américains en mars 2026. En seulement quelques mois, Anthropic est passé de 9 milliards de dollars de revenus annualisés fin 2025 à plus de 30 milliards, soit une croissance de plus de 230 % en moins d'un an. Les deux entreprises, dont les revenus combinés dépassent désormais 50 milliards de dollars annualisés, préparent toutes deux une entrée en bourse prévue pour le second semestre 2026, ce qui en fait les deux IPO technologiques les plus attendues du moment. Ce duel redessine les priorités de tout le secteur. La clé de la croissance d'Anthropic réside dans sa concentration sur les usages professionnels, qui génèrent une consommation de tokens bien plus élevée que les applications grand public. Un nombre restreint d'entreprises clientes peut ainsi produire davantage de revenus qu'une large base d'utilisateurs occasionnels. OpenAI, longtemps porté par le succès massif de ChatGPT, ajuste désormais sa stratégie en réponse : l'entreprise met l'accent sur Codex et ses outils orientés développeurs, cherchant à maximiser la valeur générée par utilisateur plutôt que le volume d'adoption. Pour les investisseurs, cela signifie que la rentabilité par usage prime désormais sur la popularité brute, un changement de paradigme qui redéfinit les critères de valorisation dans l'ensemble de l'industrie. La rivalité entre les deux acteurs dépasse cependant le seul terrain commercial. Selon des analyses relayées par le Wall Street Journal, OpenAI aurait alerté ses propres investisseurs sur la dynamique concurrentielle d'Anthropic, signe d'une tension croissante entre les deux laboratoires. Cette guerre d'influence a déjà eu des répercussions sur les marchés : la montée en puissance d'Anthropic aurait contribué à une chute de près de 1 000 milliards de dollars de valorisation dans certains segments logiciels en février 2026. Les comparaisons financières directes restent toutefois complexes, des investisseurs comme ceux de Khosla Ventures soulignant que les méthodes comptables des deux entreprises divergent, notamment sur le traitement des commissions versées aux fournisseurs cloud. Alors que les deux IPO approchent, les capitaux disponibles risquent de se concentrer sur ces deux pôles dominants, laissant moins d'espace pour le reste de l'écosystème IA.

UELes deux IPO prévues au second semestre 2026 risquent de concentrer les capitaux disponibles autour d'Anthropic et OpenAI, réduisant les opportunités de financement pour les startups IA européennes.

💬 C'est Claude Code qui a renversé la table, pas une nouvelle version de modèle ou un lancement en fanfare. Des clients enterprise qui font tourner des agents toute la journée génèrent des revenus qu'une base de millions d'abonnés à 20 euros ne peut pas suivre, et ça, OpenAI l'a compris trop tard. Pour les startups IA en Europe, deux IPOs à 50 milliards cumulés vont concentrer les capitaux comme on n'a pas vu depuis longtemps.

BusinessOpinion
1 source
OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus
27VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source
Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI
28Siècle Digital 

Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI

Meta a lancé mercredi 8 avril son nouveau modèle d'intelligence artificielle baptisé Muse Spark, première production officielle des Meta Superintelligence Labs. Ce lancement représente le résultat d'un investissement de 14,3 milliards de dollars engagé par le groupe de Mark Zuckerberg dans sa course pour rivaliser avec Google et OpenAI sur le marché des modèles de fondation les plus avancés. Ce lancement marque un tournant stratégique pour Meta, qui cherche à dépasser son image de simple acteur open source. La famille Llama avait jusqu'ici construit la réputation d'un Meta généreux, distribuant ses modèles librement à la communauté des développeurs. Avec Muse Spark, l'entreprise semble viser un positionnement différent, plus orienté vers la compétition directe avec les modèles propriétaires de Google DeepMind et d'OpenAI. Pour les entreprises et développeurs qui avaient misé sur l'écosystème Llama, cette bifurcation soulève des questions sur la cohérence de la stratégie IA de Meta. Le contexte de ce lancement est tendu : Meta accélère ses dépenses en IA à un rythme inédit, alors que la concurrence entre grands modèles s'intensifie avec les sorties récentes de Gemini 2.0 et GPT-4o. La création des Meta Superintelligence Labs signale une réorganisation interne profonde, visant à concentrer les meilleurs talents sur les systèmes les plus ambitieux. Les prochains mois diront si Muse Spark peut réellement combler le retard accumulé face aux leaders du secteur.

UELe lancement de Muse Spark et le pivot stratégique de Meta vers le propriétaire oblige les entreprises et développeurs européens ayant misé sur l'écosystème Llama open source à réévaluer leurs choix d'infrastructure IA.

LLMsOpinion
1 source
IA Générative : Anthropic dépasse OpenAI
29ZDNET FR 

IA Générative : Anthropic dépasse OpenAI

Anthropic a annoncé un chiffre d'affaires annualisé de 30 milliards de dollars, franchissant pour la première fois la barre symbolique qui place la startup devant OpenAI dans la course à la monétisation de l'intelligence artificielle générative. Cette progression est portée principalement par l'adoption massive de Claude auprès des entreprises et des grands comptes, qui représentent désormais l'essentiel des revenus de la société fondée par Dario et Daniela Amodei en 2021. Ce dépassement illustre un basculement profond dans la façon dont les entreprises choisissent leurs fournisseurs d'IA. Là où ChatGPT a conquis le grand public, Claude s'est imposé dans les environnements professionnels exigeants, notamment grâce à ses capacités de raisonnement long, sa fenêtre de contexte étendue et une réputation de fiabilité sur des tâches complexes. Pour l'industrie, ce signal remet en cause l'idée qu'OpenAI disposait d'une avance commerciale structurelle impossible à combler. Cette dynamique s'inscrit dans un contexte de compétition acharnée entre les grands laboratoires d'IA, tous en quête d'un modèle économique viable face à des coûts d'infrastructure colossaux. Anthropic, soutenu par des investissements massifs d'Amazon et de Google, a misé sur la sécurité et la robustesse comme arguments de vente différenciants auprès des directions informatiques. La question qui se pose désormais est de savoir si OpenAI, qui prépare une introduction en bourse et diversifie ses offres vers le hardware et les agents autonomes, saura répondre à cette pression concurrentielle croissante.

UELes entreprises et administrations européennes qui évaluent leurs fournisseurs d'IA doivent désormais intégrer Anthropic comme concurrent crédible d'OpenAI dans leurs décisions d'achat et appels d'offres.

BusinessOpinion
1 source
Les revenus d'Anthropic remettent en question la valorisation d'OpenAI
30The Information AI 

Les revenus d'Anthropic remettent en question la valorisation d'OpenAI

Anthropic a annoncé lundi avoir atteint un rythme de revenus annualisés de 30 milliards de dollars, soit plus du double de ce que la société déclarait à la mi-février 2026. Ce chiffre place désormais Anthropic devant son rival OpenAI, qui annonçait il y a une semaine générer 2 milliards de dollars par mois, soit 24 milliards en rythme annualisé. L'écart de valorisation entre les deux entreprises est pourtant saisissant : Anthropic a levé des fonds en février sur la base d'une valorisation de 380 milliards de dollars, tandis qu'OpenAI a finalisé le mois dernier un tour de table à 852 milliards de dollars. Ce décrochage soulève une question directe : OpenAI est-elle surévaluée ? Si Anthropic génère désormais davantage de revenus qu'OpenAI tout en étant valorisée à moins de la moitié, les investisseurs d'OpenAI parient sur une prime de marque et de position dominante qui ne se reflète plus dans les chiffres bruts. Pour l'industrie de l'IA, cela signale que la course n'est plus jouée d'avance et qu'Anthropic, longtemps perçue comme le challenger sérieux mais second, a franchi un seuil symbolique et financier majeur. La pratique des deux entreprises de communiquer en "revenus annualisés" plutôt qu'en chiffres réels auditables complique l'analyse : ce mode de calcul, basé sur le dernier mois multiplié par douze, peut amplifier les variations temporaires et ne donne pas aux investisseurs une image fidèle de la trajectoire durable. Ni Anthropic ni OpenAI ne sont cotées en bourse, ce qui laisse ces données sans vérification indépendante. Une introduction en bourse des deux acteurs permettrait enfin une transparence financière complète, jugée indispensable pour évaluer des valorisations aussi élevées dans un secteur qui brûle des capitaux à un rythme sans précédent.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires
31Next INpact 

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic a annoncé ce week-end de Pâques avoir atteint un chiffre d'affaires annualisé supérieur à 30 milliards de dollars, contre 9 milliards de dollars projetés en décembre 2025. Cette multiplication par plus de trois en un seul trimestre s'accompagne d'un doublement du nombre de clients entreprises dépensant plus d'un million de dollars par an : ils étaient 500 en février lors de la série G, ils sont aujourd'hui plus de 1 000. Cette annonce a été glissée dans une communication sur un nouvel accord pluriannuel avec Google et Broadcom, portant sur des infrastructures de calcul basées aux États-Unis. En février, Anthropic avait levé 3 milliards de dollars lors de cette série G sur une valorisation de 61 milliards. Pour la première fois, ces chiffres placeraient Anthropic devant OpenAI en termes de rythme de revenus. Le 31 mars, OpenAI déclarait générer 2 milliards de dollars par mois, soit une projection annuelle d'environ 24 milliards. L'écart, s'il est réel, représente un tournant symbolique majeur dans la course aux grands modèles de langage : Anthropic, fondée en 2021 par d'anciens d'OpenAI dont Dario et Daniela Amodei, aurait en moins de quatre ans rattrapé puis dépassé son rival direct sur le terrain commercial. Pour les investisseurs, qui cherchent à savoir si ces sociétés pourront un jour couvrir leurs colossales dépenses en infrastructures, la trajectoire compte autant que le chiffre absolu. Il faut néanmoins manier ces comparaisons avec prudence. L'indicateur mis en avant par Anthropic est un "run rate", c'est-à-dire une extrapolation : on prend les revenus sur une courte période favorable et on les annualise. Le résultat peut refléter un pic ponctuel plutôt qu'une tendance stable. OpenAI, de son côté, insiste sur la récurrence et la régularité de sa croissance, passant de 1 milliard par trimestre fin 2024 à 2 milliards par mois aujourd'hui. Au-delà de la bataille de chiffres, les enjeux sont concrets : Anthropic vient de restreindre les abonnements Claude pour pousser vers les API facturées au token, un signe que la monétisation s'intensifie. L'ensemble du secteur reste sous pression financière structurelle, les dépenses en GPU et en énergie étant considérables, et la question de la rentabilité réelle demeure entière pour les deux acteurs.

UELes entreprises europeennes abonnees a Claude pourraient etre affectees par la restriction des abonnements au profit de la facturation a l'usage, signalant une intensification de la monetisation des API IA sur le marche professionnel europeen.

BusinessOpinion
1 source
L'Iran menace le centre de données Stargate d'OpenAI à Abu Dhabi
32The Verge AI 

L'Iran menace le centre de données Stargate d'OpenAI à Abu Dhabi

Les Gardiens de la révolution islamique iraniens (IRGC) ont publié le 3 avril 2026 une vidéo menaçant directement le datacenter Stargate d'OpenAI en cours de construction à Abu Dhabi. Diffusée sur le compte X d'un média d'État iranien, la vidéo évoque "l'annihilation totale et complète" des entreprises énergétiques et technologiques liées aux États-Unis dans la région, accompagnée d'une image du chantier Stargate aux Émirats arabes unis. Ce projet est évalué à 30 milliards de dollars et s'inscrit dans l'initiative Stargate globale d'OpenAI, dotée de 500 milliards de dollars, avec des investisseurs comme Oracle. Cette menace expose la fragilité géopolitique des infrastructures IA au Moyen-Orient. Le datacenter d'Abu Dhabi, conçu pour soutenir une expansion massive des capacités de calcul d'OpenAI, se retrouve pris en otage d'une escalade diplomatique entre Washington et Téhéran. Pour les entreprises technologiques américaines qui misent sur le Golfe comme hub stratégique, ce type de menace directe soulève des questions sérieuses sur la sécurité des investissements dans la région. La menace intervient dans un contexte de tensions accrues entre les États-Unis et l'Iran, Washington ayant évoqué des frappes potentielles contre des installations électriques iraniennes. Les Émirats arabes unis, partenaire clé du projet Stargate via le groupe G42, se retrouvent au centre d'un bras de fer qui dépasse largement le secteur tech. OpenAI avait annoncé ce partenariat comme une expansion stratégique vers les marchés du Golfe, mais la menace iranienne pourrait désormais compliquer la concrétisation de ces ambitions régionales.

UELes entreprises européennes investissant dans des infrastructures numériques au Golfe pourraient être amenées à réévaluer leur exposition géopolitique dans la région.

Microsoft lance 3 nouveaux modèles d'IA pour rivaliser avec OpenAI et Google
33VentureBeat AI 

Microsoft lance 3 nouveaux modèles d'IA pour rivaliser avec OpenAI et Google

Microsoft a lancé mercredi trois nouveaux modèles d'intelligence artificielle développés entièrement en interne : MAI-Transcribe-1, un système de transcription vocale, MAI-Voice-1, un moteur de synthèse vocale, et MAI-Image-2, un générateur d'images amélioré. Disponibles immédiatement via Microsoft Foundry et un nouveau MAI Playground, ces modèles positionnent le géant du logiciel — valorisé 3 000 milliards de dollars — en concurrent direct d'OpenAI, Google et ElevenLabs sur le terrain du développement de modèles fondamentaux, et plus seulement sur leur distribution. MAI-Transcribe-1 affiche un taux d'erreur moyen de 3,8 % sur le benchmark FLEURS dans les 25 langues les plus utilisées dans les produits Microsoft, surpassant Whisper-large-v3 d'OpenAI sur l'ensemble de ces langues, et Gemini Flash de Google sur 22 d'entre elles. Le modèle traite les fichiers MP3, WAV et FLAC jusqu'à 200 Mo, avec une vitesse de transcription 2,5 fois supérieure à l'offre Azure actuelle, tout en consommant deux fois moins de GPU que la concurrence selon Microsoft. MAI-Voice-1 génère 60 secondes d'audio naturel en une seconde, à 22 dollars par million de caractères. MAI-Image-2, classé dans le top 3 sur Arena.ai, est déployé dans Bing et PowerPoint à 33 dollars par million de tokens image, et compte déjà WPP, le plus grand groupe publicitaire mondial, parmi ses premiers clients entreprise. Ces trois modèles constituent la première réponse concrète de Microsoft à une pression considérable des investisseurs : l'action vient de clôturer son pire trimestre depuis la crise financière de 2008, alors que des centaines de milliards de dépenses en infrastructure IA tardent à se traduire en revenus. En développant ses propres modèles, Microsoft réduit son coût de revient en remplaçant progressivement les modèles tiers — à commencer par une intégration de MAI-Transcribe-1 dans Copilot Voice et Microsoft Teams. La stratégie d'« autosuffisance en IA », formulée par Mustafa Suleyman, patron de Microsoft AI, vise à transformer l'entreprise d'un distributeur de technologie externe en producteur de modèles de pointe. Ce pivot n'aurait pas été possible sans un changement contractuel majeur survenu en octobre 2025. Le contrat originel de 2019 entre Microsoft et OpenAI interdisait explicitement à Microsoft de développer ses propres modèles d'intelligence artificielle générale en échange d'une licence sur les modèles d'OpenAI. La renégociation de cet accord a libéré Microsoft, qui a aussitôt constitué une équipe dédiée à la superintelligence — celle-là même qui vient de produire ces premiers résultats en six mois seulement. L'enjeu dépasse le seul marché de la transcription ou des images : Microsoft cherche à ne plus dépendre d'un partenaire unique pour alimenter ses produits phares, à l'heure où la compétition entre labs frontier s'intensifie et où chaque point de marge compte face à des coûts d'infrastructure colossaux.

UELes développeurs et entreprises européens peuvent accéder immédiatement à ces modèles via Microsoft Foundry, avec un impact potentiel sur les choix de fournisseurs pour la transcription vocale, la synthèse et la génération d'images dans les produits Microsoft déjà largement déployés en Europe.

💬 Ce qui me frappe dans cette news, c'est pas les benchmarks, c'est la clause contractuelle de 2019 qu'on découvre en passant : pendant six ans, Microsoft était littéralement interdit de construire ses propres modèles. Six ans à jouer le revendeur d'OpenAI. La renégociation d'octobre dernier change tout, et six mois plus tard ils sortent trois modèles qui tiennent la route. Reste à voir si c'est le début d'une vraie indépendance ou juste un argument de plus pour les actionnaires.

OpenAI valorisée à 852 milliards de dollars après une nouvelle levée de fonds
34AI Business 

OpenAI valorisée à 852 milliards de dollars après une nouvelle levée de fonds

OpenAI vient de boucler un nouveau tour de financement qui porte sa valorisation à 852 milliards de dollars, consolidant ainsi sa position parmi les entreprises privées les plus valorisées au monde. La société, fondatrice de ChatGPT et des modèles GPT-4, franchit ce cap au terme d'une levée de fonds dont le montant exact n'a pas été précisé, mais qui reflète l'appétit persistant des investisseurs pour les acteurs dominants de l'IA générative. Cette valorisation place OpenAI dans une catégorie rarissime, aux côtés de géants technologiques non cotés comme SpaceX. Pour l'industrie, le signal est clair : les capitaux continuent de se concentrer massivement sur un nombre restreint d'acteurs capables de déployer des modèles à grande échelle, creusant l'écart avec les concurrents moins bien dotés. Les partenaires commerciaux et développeurs qui s'appuient sur l'API OpenAI y liront une garantie supplémentaire de pérennité. Cette levée intervient dans un contexte de compétition intense entre OpenAI, Google DeepMind, Anthropic et Meta sur le front des grands modèles de langage. Après avoir converti son statut en entreprise à but lucratif début 2025, OpenAI cherche à financer le développement de ses prochaines générations de modèles et l'expansion de son infrastructure de calcul. Une introduction en bourse reste évoquée à moyen terme, et cette valorisation en constituerait le plancher de référence.

UELes entreprises et développeurs européens qui s'appuient sur l'API OpenAI peuvent interpréter cette valorisation comme un signal de pérennité, sans impact réglementaire ou économique direct sur la France ou l'UE.

Levée record de 122 milliards pour OpenAI : l'introduction en Bourse est lancée.
35ZDNET FR 

Levée record de 122 milliards pour OpenAI : l'introduction en Bourse est lancée.

OpenAI a finalisé la plus grande levée de fonds de l'histoire de la tech privée, bouclant un tour de table de 122 milliards de dollars qui porte sa valorisation à 852 milliards. La transaction, menée par SoftBank à hauteur de 40 milliards, propulse la société fondée par Sam Altman dans une catégorie à part, loin devant tous les autres acteurs de l'IA générative. Ce financement exceptionnel s'accompagne d'une annonce claire : une introduction en Bourse est désormais en préparation. Avec près de 900 milliards de valorisation, OpenAI rejoint le club très restreint des entreprises les plus valorisées au monde avant même d'être cotée. L'enjeu est de taille pour l'ensemble de l'industrie : cette levée légitime les multiples stratosphériques du secteur IA et va probablement accélérer la consolidation du marché, où les acteurs sans accès à des capitaux massifs risquent d'être distancés. Pour les entreprises clientes, le signal envoyé est celui d'une pérennité garantie — un argument commercial direct face aux inquiétudes sur la viabilité financière d'OpenAI. Cette opération intervient alors qu'OpenAI traverse une transformation profonde de son modèle. La société accélère son pivot vers une « super-application » agentique — capable d'agir de façon autonome au nom des utilisateurs — et rationalise son catalogue de produits pour séduire les grands comptes. Depuis deux ans, la firme brûle des milliards en coûts d'infrastructure tout en cherchant la rentabilité ; l'IPO à venir imposera une discipline financière nouvelle, sous le regard des marchés publics et de ses nouveaux actionnaires institutionnels.

UELes acteurs européens de l'IA, moins capitalisés, risquent d'être distancés par une consolidation accélérée du marché mondial que seuls les géants disposant de financements massifs pourront suivre.

💬 852 milliards de valorisation pour une boîte qui perd encore de l'argent, bon, sur le papier ça donne le vertige. Ce que je retiens surtout, c'est que l'IPO va forcer une vraie discipline financière, là où tout le monde faisait semblant de ne pas regarder les chiffres. Reste à voir si les marchés publics seront aussi indulgents que SoftBank.

BusinessOpinion
1 source
OpenAI scénarise son IPO et conclut son tour sur un cliffhanger à 852 milliards de dollars
36FrenchWeb 

OpenAI scénarise son IPO et conclut son tour sur un cliffhanger à 852 milliards de dollars

OpenAI vient de boucler son dernier tour de financement à une valorisation de 852 milliards de dollars, un record absolu pour une entreprise privée dans le secteur technologique. Ce tour, piloté par Sam Altman avec une précision narrative remarquable, intervient quelques mois avant une introduction en bourse attendue pour la fin de l'année 2026. Le montant exact levé n'a pas été divulgué, mais la valorisation place OpenAI au rang des entreprises les plus précieuses au monde, devant des géants établis depuis des décennies. Cette valorisation stratosphérique n'est pas anodine : elle conditionne directement les termes de l'IPO à venir et verrouille les attentes des investisseurs institutionnels. À 852 milliards, OpenAI se positionne pour viser le trillion de dollars en bourse, un seuil symbolique que seuls Apple, Nvidia, Microsoft et quelques autres ont franchi. Pour les acteurs de l'IA — startups, investisseurs, concurrents — ce chiffre envoie un signal fort sur la prime accordée au leadership dans ce secteur, et renforce la pression sur Anthropic, Google DeepMind et Meta pour justifier leurs propres valorisations. Ce tour de table s'inscrit dans une transformation structurelle d'OpenAI, en cours depuis 2024 : la société a entamé sa conversion de statut à but non lucratif vers une structure commerciale classique, condition sine qua non d'une cotation en bourse. Sam Altman orchestre chaque étape comme un récit feuilletonnant — tours de table, restructurations, annonces produits — pour maintenir l'élan narratif et les valorisations. L'IPO, si elle aboutit, serait l'une des plus importantes de la décennie dans la tech.

UELa valorisation record d'OpenAI à 852 milliards de dollars accentue la pression sur les acteurs européens de l'IA, notamment Mistral, pour justifier leurs propres valorisations auprès des investisseurs institutionnels européens.

💬 852 milliards avant l'IPO, c'est une mise en scène autant qu'une réalité financière. Altman sait que le chiffre qui précède la bourse devient le plancher psychologique des attentes, et viser le trillion dès la cotation, c'est courageux ou inconscient, peut-être les deux. Ce qui me frappe surtout, c'est la pression que ça met sur Mistral et les autres européens : expliquer ta valorisation quand OpenAI écrase tout le monde à 852 Mds, bonne chance.

BusinessOpinion
1 source
La levée de fonds d'OpenAI ; La (désastreuse) promotion des IPO de 2021
37The Information AI 

La levée de fonds d'OpenAI ; La (désastreuse) promotion des IPO de 2021

OpenAI a officialisé une levée de fonds massive, annonçant des engagements totaux atteignant 122 milliards de dollars. Parmi les contributeurs principaux, Amazon s'est engagé à hauteur de 50 milliards de dollars, dont seulement 15 milliards sont versés immédiatement — le reste étant conditionné à plusieurs facteurs, notamment l'entrée en Bourse d'OpenAI. SoftBank participera pour 30 milliards de dollars, répartis en trois versements échelonnés jusqu'en octobre. Il est important de souligner que ces chiffres représentent des engagements, pas des fonds déjà transférés : une grande partie de cet argent n'a pas encore atterri sur les comptes bancaires de l'entreprise. Cette opération confirme qu'OpenAI reste l'acteur le plus capitalisé de la course à l'intelligence artificielle générale, avec une capacité à mobiliser des partenaires stratégiques de premier plan. Pour Amazon, cet engagement massif renforce son positionnement dans l'IA au moment où AWS cherche à concurrencer Microsoft Azure, déjà partenaire historique d'OpenAI via un accord de plusieurs dizaines de milliards. Pour SoftBank, dont la stratégie repose sur des paris à long terme dans la tech, l'investissement reflète une conviction renouvelée dans le potentiel commercial de l'IA — après des années marquées par des paris controversés comme WeWork. Cette levée intervient dans un contexte de vive compétition entre les grands laboratoires d'IA, avec Anthropic (soutenu par Google et Amazon) et Google DeepMind en embuscade. Le calendrier des versements, lié en partie à une éventuelle introduction en Bourse d'OpenAI, illustre la pression croissante sur la startup pour monétiser ses produits et justifier des valorisations stratosphériques. Pendant ce temps, des tensions géopolitiques se font sentir : des menaces iraniennes visant des infrastructures technologiques américaines au Moyen-Orient font peser une incertitude supplémentaire sur un secteur déjà sous surveillance réglementaire intense en Europe et aux États-Unis.

UELa domination capitalistique renforcée d'OpenAI accentue la pression sur les régulateurs européens pour faire appliquer l'AI Act face à des acteurs américains aux moyens quasi-illimités.

💬 122 milliards sur le papier, c'est impressionnant, mais la moitié de cet argent n'existe pas encore vraiment : Amazon garde 35 milliards dans sa poche jusqu'à l'IPO, SoftBank échelonne sur deux ans. C'est le genre de levée où le communiqué de presse est deux fois plus gros que le chèque. Reste que même à moitié encaissé, ça fait une sacrée piste d'atterrissage pour OpenAI face à Anthropic et Google.

BusinessOpinion
1 source
OpenAI lève 3 milliards auprès d'investisseurs particuliers dans une levée record de 122 milliards
38TechCrunch AI 

OpenAI lève 3 milliards auprès d'investisseurs particuliers dans une levée record de 122 milliards

OpenAI a bouclé un tour de financement record de 122 milliards de dollars, dont 3 milliards levés directement auprès d'investisseurs particuliers — une démarche inhabituelle pour une entreprise non cotée. Le tour est mené par Amazon, Nvidia et SoftBank, et porte la valorisation de la société à 852 milliards de dollars, la plaçant parmi les entreprises privées les plus valorisées de l'histoire. L'ouverture aux investisseurs retail signale qu'OpenAI prépare activement son introduction en bourse. En associant le grand public à ce tour pré-IPO, la société élargit sa base d'actionnaires et génère une dynamique de marché favorable avant une cotation. Pour les investisseurs institutionnels comme SoftBank — déjà engagé à hauteur de 500 millions de dollars dans le projet Stargate — c'est une opportunité de consolider leur position avant que le titre ne soit accessible à tous. Cette levée intervient dans un contexte de course effrénée aux capitaux dans l'IA générative. OpenAI fait face à la montée en puissance de concurrents comme Anthropic, Google DeepMind et des acteurs chinois tels que DeepSeek. Avec une valorisation frôlant les 1 000 milliards de dollars, l'entreprise fondée par Sam Altman s'approche d'un statut de « trillion-dollar company » avant même son entrée en bourse, une IPO qui pourrait redéfinir les standards du secteur technologique.

UELa valorisation record d'OpenAI à 852 milliards de dollars et sa future IPO renforceront la dépendance des entreprises européennes aux infrastructures IA américaines, aggravant les enjeux de souveraineté numérique de l'UE.

💬 852 milliards avant même l'IPO, c'est du jamais vu et c'est pas un accident. Ouvrir le tour aux particuliers, c'est pas de la générosité envers les petits porteurs, c'est la mécanique classique pour chauffer la base actionnaire et arriver en bourse avec un marché déjà acquis. Ça va faire une IPO spectaculaire sur le papier, bon, reste à voir ce que ça donne quand les vrais chiffres de marge seront publics.

BusinessActu
1 source
OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards
39The Information AI 

OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards

OpenAI a annoncé mardi avoir bouclé un tour de financement de 122 milliards de dollars, pour une valorisation pré-investissement de 830 milliards de dollars — soit environ 22 milliards au-dessus de l'objectif initial de 100 milliards révélé par The Information. SoftBank figure parmi les investisseurs principaux de cette levée historique, qui propulse OpenAI au rang des entreprises privées les mieux valorisées au monde. Cette opération confirme que les marchés continuent de parier massivement sur l'IA générative malgré des questions persistantes sur la rentabilité à court terme. Pour OpenAI, ces capitaux doivent financer l'expansion de ses infrastructures de calcul, le développement de nouveaux modèles et l'accélération de son déploiement commercial à l'échelle mondiale — notamment face à une concurrence de plus en plus dense de Google, Meta et des acteurs chinois comme DeepSeek. OpenAI traverse une période de transformation profonde : l'entreprise est en train de passer d'une structure à but non lucratif à une société à but lucratif, une transition complexe sur le plan juridique et éthique. Ce tour de table intervient alors que Sam Altman cherche à sécuriser des ressources suffisantes pour maintenir son avance technologique et développer des produits grand public au-delà de ChatGPT, dans un secteur où les coûts d'entraînement des modèles continuent d'exploser.

UECette levée record renforce la domination américaine dans l'IA générative et accentue la pression sur les acteurs européens, relançant le débat sur la souveraineté numérique et la capacité de l'UE à rivaliser dans la course aux infrastructures IA.

💬 830 milliards pour une boîte qui perd encore de l'argent, ça dit tout sur l'état du marché. SoftBank qui remets au pot, c'est presque rassurant, ils ont l'habitude des paris fous. Ce qui m'intéresse là-dedans, c'est pas la valorisation, c'est la question qui reste sans réponse : est-ce qu'on est dans une bulle ou dans la construction réelle d'une infrastructure mondiale ? On aura la réponse dans 3 ans.

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial
40Le Big Data 

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial

En octobre 2025, Sam Altman a conclu des accords préliminaires avec les deux géants mondiaux de la mémoire vive, Samsung Electronics et SK Hynix, pour réserver 900 000 wafers de DRAM par mois — soit environ 40 % de la production mondiale totale. Ces lettres d'intention, signées sans commande ferme ni paiement immédiat, ont suffi à déclencher une onde de choc sur le marché. Les deux fabricants coréens ignoraient qu'ils s'engageaient simultanément pour les mêmes volumes. Résultat : un kit DDR5-6000 de 32 Go, qui coûtait 139 € avant ces annonces, s'affiche aujourd'hui à plus de 340 € chez des revendeurs comme LDLC. En mars 2026, la situation s'est encore aggravée lorsqu'OpenAI a rompu son engagement de 71 milliards de dollars avec SK Hynix, faisant chuter les actions de Micron et semant la panique chez les distributeurs qui avaient déjà anticipé la pénurie en masquant leurs tarifs publics. L'impact est immédiat et concret pour des millions d'utilisateurs. Les fabricants comme Micron ont fermé leur division grand public — la marque Crucial a pratiquement disparu des rayons — pour rediriger leurs lignes de production vers la mémoire HBM destinée aux centres de données IA. TrendForce estime que les datacenters capteront 70 % de la production mondiale de puces en 2026, ne laissant que des miettes au marché des PC. La part de la mémoire dans le coût d'un ordinateur HP est passée de 15 % à 35 %. Les consoles portables comme le Steam Deck de Valve sont en rupture de stock dans le monde entier, faute de composants disponibles. Gartner prévoit une chute des ventes de PC d'entrée de gamme et de configurations accessibles aux petits budgets, pénalisant directement les étudiants, les travailleurs indépendants et les pays émergents. Cette crise illustre un phénomène plus large : la mainmise croissante des géants de l'IA sur les chaînes d'approvisionnement en semi-conducteurs, au détriment du marché grand public. OpenAI, forte de la confiance des marchés et de ses investisseurs, a pu bloquer une fraction massive de la production mondiale sans débourser un centime, simplement par le poids de sa signature. Ce type de spéculation sur lettres d'intention crée des goulots d'étranglement artificiels qui faussent les prix bien avant que la moindre puce ne sorte d'usine. La question qui se pose désormais est celle de la régulation : faut-il encadrer les achats anticipés de composants stratégiques pour éviter que les ambitions d'un seul acteur ne paralysent l'ensemble du marché informatique mondial ? Les prochains mois seront déterminants, notamment si d'autres acteurs comme Microsoft, Google ou Meta suivent la même stratégie d'accaparement.

UELes prix de la RAM ont doublé en France (139 € à 340 € chez LDLC), pénalisant directement étudiants et indépendants, et la question d'une régulation européenne des réservations massives de composants stratégiques par les géants de l'IA devient urgente.

💬 Réserver 40% de la RAM mondiale avec une lettre d'intention sans débourser un centime, c'est du culot à l'état pur. Résultat : 139 € le kit DDR5 en octobre, 340 € aujourd'hui, et Crucial qui a pratiquement disparu des rayons. Si on n'encadre pas ce genre de spéculation sur des composants stratégiques, d'autres acteurs vont tenter le même coup.

InfrastructureOpinion
1 source
Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI
41The Information AI 

Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI

Microsoft a dévoilé lundi de nouvelles fonctionnalités pour son logiciel 365 Copilot, intégrant simultanément les modèles d'intelligence artificielle d'OpenAI et d'Anthropic pour automatiser les tâches dans ses applications Office et Teams. Parmi les nouveautés, une fonction baptisée « Critique » combine les deux fournisseurs de manière séquentielle : les modèles d'OpenAI compilent d'abord une recherche sur un sujet donné, puis les modèles d'Anthropic (Claude) analysent et critiquent ce résultat pour en améliorer la qualité finale. Microsoft a également annoncé des améliorations à la mémoire de Copilot et à ses capacités d'agents autonomes. Cette intégration multi-modèles marque un tournant dans la stratégie de Microsoft : plutôt que de s'appuyer exclusivement sur son partenaire historique OpenAI — dans lequel il a investi plus de 13 milliards de dollars —, l'entreprise orchestre désormais plusieurs LLMs en fonction de leurs forces respectives. Pour les quelque 400 millions d'utilisateurs de la suite Microsoft 365, cela se traduit par des assistants plus fiables capables d'auto-corriger leurs propres sorties. Ce virage reflète une tendance de fond dans l'industrie : les grandes entreprises adoptent des architectures « multi-modèles » pour optimiser coût, performance et résilience. Microsoft, qui distribue aussi les modèles d'Anthropic via Azure, se positionne en orchestrateur neutre plutôt qu'en champion exclusif d'OpenAI. La relation entre les deux entreprises reste étroite, mais la dépendance s'allège — un signal fort à l'heure où Google, Meta et Amazon renforcent également leurs propres offres d'IA en entreprise.

UELes entreprises françaises et européennes équipées de Microsoft 365 bénéficieront directement des nouvelles capacités Copilot multi-modèles, sans surcoût ni migration requise.

OutilsOutil
1 source
OpenAI met fin à Sora
42The Verge AI 

OpenAI met fin à Sora

OpenAI a annoncé mardi dernier la suppression de Sora, son application de génération vidéo, ainsi que l'abandon de son intégration dans ChatGPT. Simultanément, la société a mis fin à un accord de 1 milliard de dollars avec Disney, remanié le rôle d'un cadre supérieur, et annoncé une levée de fonds supplémentaire de 10 milliards de dollars — portant son dernier tour de table à plus de 120 milliards de dollars au total. La décision de tuer Sora reflète une réalité financière brutale : le produit consommait une quantité massive de puissance de calcul sans générer les revenus nécessaires pour le justifier. OpenAI est désormais sous forte pression pour atteindre la rentabilité — ou du moins réduire ses pertes. Sacrifier un produit coûteux mais peu lucratif, même emblématique, signale que la direction privilégie désormais la viabilité économique sur la démonstration technologique. Ce revirement intervient dans un contexte où OpenAI dépense des milliards en infrastructure GPU tout en cherchant à monétiser ses produits à grande échelle. L'entreprise, valorisée à plusieurs centaines de milliards de dollars, fait face à une concurrence accrue de Google, Meta et des startups spécialisées dans la vidéo IA comme Runway ou Kling. La rupture avec Disney — partenariat qui devait pourtant légitimer Sora auprès des créateurs professionnels — illustre l'ampleur du pivot stratégique. Les prochains mois diront si OpenAI parvient à concentrer ses ressources sur des produits réellement générateurs de revenus avant que ses réserves de trésorerie ne s'épuisent.

UELes créateurs et professionnels européens utilisant Sora devront migrer vers des alternatives pour la génération vidéo IA, sans impact réglementaire ou institutionnel direct pour l'UE.

💬 La mort de Sora confirme ce que beaucoup soupçonnaient : la génération vidéo IA reste prohibitivement coûteuse en GPU pour un usage grand public viable. Concrètement, les équipes qui avaient parié sur Sora dans leurs workflows doivent migrer — Runway, Kling et Pika restent les alternatives sérieuses. Le signal fort ici, c'est qu'OpenAI sacrifie la vitrine technologique pour le P&L : attendez-vous à ce que d'autres features gourmandes en compute subissent le même sort.

BusinessOpinion
1 source
OpenAI ferme Sora en deux temps : l'application en avril 2026, l'API en septembre
43The Decoder 

OpenAI ferme Sora en deux temps : l'application en avril 2026, l'API en septembre

OpenAI a annoncé la fermeture définitive de Sora, son outil de génération vidéo par intelligence artificielle, selon un calendrier en deux étapes : l'application sera désactivée en avril 2026, tandis que l'accès via API sera coupé en septembre 2026. Ce retrait progressif laisse aux développeurs et utilisateurs plusieurs mois pour migrer vers d'autres solutions avant l'arrêt complet du service. Cette décision marque un tournant stratégique significatif pour OpenAI, qui choisit de se désengager du secteur de la création vidéo IA pour concentrer ses ressources sur les outils de développement logiciel et les produits à destination des entreprises. Pour les créateurs de contenu, agences et studios qui avaient intégré Sora dans leurs flux de production, le retrait impose une migration vers des concurrents comme Runway, Kling ou Pika, qui se retrouvent en position de récupérer une base d'utilisateurs déjà formés à la génération vidéo IA. Lancé fin 2024 avec un battage médiatique considérable, Sora n'a jamais vraiment réussi à s'imposer face à une concurrence agressive, notamment des acteurs asiatiques proposant des capacités comparables à moindre coût. OpenAI semble avoir tranché : la bataille du contenu vidéo génératif ne vaut pas l'investissement, alors que le marché des agents de code et des solutions enterprise offre des perspectives de monétisation bien plus directes. La fermeture de Sora confirme que même les géants de l'IA doivent faire des choix douloureux face à la fragmentation rapide du secteur.

UELes agences, studios et créateurs français ayant intégré Sora dans leurs workflows doivent planifier une migration vers des alternatives avant avril 2026 (application) et septembre 2026 (API) pour éviter toute interruption de service.

💬 Sora ferme parce qu'OpenAI n'arrivait pas à le monétiser face aux concurrents asiatiques à moitié prix — c'est un aveu d'échec industriel, pas un pivot stratégique. Pour les équipes qui avaient intégré l'API, le délai jusqu'en septembre 2026 est correct, mais la leçon à retenir c'est de ne jamais construire un pipeline de production critique sur un service OpenAI en beta perpétuelle. Runway ML et Kling ont désormais le champ libre pour convertir ces migrations en contrats long terme.

BusinessOpinion
1 source
OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?
44Le Big Data 

OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?

Le mardi 24 mars 2026, l'équipe officielle de Sora a publié un message d'adieu sur X, confirmant la fermeture définitive du générateur de vidéos par IA d'OpenAI. Six mois seulement après son lancement grand public en septembre 2025, l'application est débranchée. Pourtant, les débuts avaient été spectaculaires : Sora avait franchi le million de téléchargements plus vite que ChatGPT en son temps. Mais l'euphorie a été de courte durée. Dès janvier 2026, les téléchargements chutaient de 45 % en un mois, le taux de rétention à 30 jours s'effondrait sous les 8 %, et sur le dernier mois, l'outil ne réunissait plus que 600 000 utilisateurs actifs, relégué à la 172e place de l'App Store. Pendant ce temps, faire tourner l'infrastructure coûtait à OpenAI 15 millions de dollars par jour — une hémorragie financière impossible à tenir. L'accord avec Disney, qui avait investi un milliard de dollars en décembre pour permettre l'intégration de plus de 200 personnages franchisés (Marvel, Star Wars, Pixar) dans les vidéos générées, est lui aussi annulé, l'investissement ne s'étant finalement jamais concrétisé. La fermeture de Sora est avant tout un signal stratégique fort : OpenAI prépare son introduction en bourse pour le quatrième trimestre 2026 et doit convaincre Wall Street de sa rentabilité. Fidji Simo, nouvelle responsable de la division AGI Deployment, a été explicite en interne : l'entreprise ne peut plus se disperser dans des « quêtes secondaires ». Sam Altman a réorganisé ses priorités autour de la levée de capitaux et de la construction de centres de données. Toute la puissance de calcul libérée par l'arrêt de Sora est redirigée vers les clients B2B, jugés bien plus lucratifs. La semaine précédant l'annonce, OpenAI confirmait aussi la fusion de ChatGPT desktop, de son outil de code Codex et de son navigateur web en une seule « super-app » — une consolidation qui illustre cette nouvelle discipline budgétaire. L'entraînement d'un nouveau modèle, nom de code « Spud », vient par ailleurs de s'achever, confirmant que les priorités technologiques ont changé de camp. Sora était apparu en février 2024 comme une promesse de révolution pour Hollywood, capable de générer des vidéos photoréalistes à partir d'un simple texte. Son lancement public avait suscité un engouement mondial, mais le fossé entre la démonstration technique et l'usage quotidien s'est révélé impossible à combler face à la brutalité des chiffres économiques.

UELes créateurs de contenu et studios européens utilisant Sora perdent l'accès à l'outil et doivent se tourner vers des alternatives concurrentes pour leurs productions vidéo générées par IA.

BusinessOpinion
1 source
OpenAI abandonne Sora et les vidéos générées par IA, l’accord avec Disney vole en éclats
45Next INpact 

OpenAI abandonne Sora et les vidéos générées par IA, l’accord avec Disney vole en éclats

OpenAI annonce la fin de Sora, son application de génération vidéo par IA, entraînant également la rupture du partenariat avec Disney. Sam Altman confirme que l'arrêt concerne tous les produits basés sur les modèles vidéo d'OpenAI, en raison des ressources de calcul trop importantes qu'ils consomment. L'entreprise se recentre sur l'IA pour le codage et les tâches professionnelles, dans un contexte de dépenses massives (plus de 11 milliards de dollars par trimestre) avant une entrée en bourse prévue cette année.

BusinessActu
1 source
Actualité : OpenAI ferme brutalement Sora, l'usine à slop la plus chère de l'histoire de l'IA
46Les Numériques IA 

Actualité : OpenAI ferme brutalement Sora, l'usine à slop la plus chère de l'histoire de l'IA

OpenAI a annoncé le 24 mars 2026 la fermeture brutale de Sora, son outil d'IA pour créer des vidéos, décrite comme l'usine à slop la plus coûteuse de l'histoire de l'IA. Aucune justification n'est donnée officiellement ; une communication ultérieure devrait préciser le calendrier et les mesures pour sauvegarder les contenus utilisateur.

UELa fermeture soudaine de Sora par OpenAI affecte potentiellement les utilisateurs et développeurs européens qui ont investi dans cet outil d'IA pour la création de vidéos.

RechercheActu
1 source
OpenAI abandonne Sora et son accord milliardaire avec Disney
47The Verge AI 

OpenAI abandonne Sora et son accord milliardaire avec Disney

OpenAI a annoncé l'abandon de Sora, son outil de génération vidéo lancé fin 2024, mettant fin à la fois à l'application et à l'accès API pour les développeurs. Cette décision entraîne également la fin du partenariat majeur avec Disney, qui avait annoncé en décembre un investissement d'un milliard de dollars dans OpenAI incluant une licence pour ses personnages. Selon le Wall Street Journal, c'est Sam Altman lui-même qui a informé les équipes, sans qu'une intégration dans ChatGPT ne soit prévue.

UELes développeurs européens ayant intégré l'API Sora dans leurs projets devront migrer vers des alternatives de génération vidéo.

BusinessActu
1 source
OpenAI prépare l’appli IA ultime pour PC : ChatGPT, Atlas et Codex dans une seule app
48Le Big Data 

OpenAI prépare l’appli IA ultime pour PC : ChatGPT, Atlas et Codex dans une seule app

OpenAI prépare une application desktop unique regroupant ChatGPT, Codex (génération de code) et Atlas (navigateur IA intégré), pour remplacer son écosystème actuellement fragmenté. L'objectif est de transformer OpenAI en une couche centrale de l'expérience utilisateur sur PC, capable d'agir concrètement : chercher, analyser et automatiser depuis une seule interface. Cette initiative place OpenAI en concurrence directe avec Microsoft (Windows/Office + Copilot), Google (Gemini) et Apple sur le terrain des systèmes d'exploitation et suites logicielles.

UEL'arrivée d'une suite logicielle IA unifiée d'OpenAI sur PC pourrait bousculer le marché européen des outils de productivité et renforcer la dépendance des entreprises européennes aux plateformes américaines.

OutilsOutil
1 source
Microsoft menace OpenAI et Amazon de poursuites judiciaires sur fond de guerre du cloud
OpenAI Frontier place les agents IA d'entreprise au cœur d'un combat que le secteur SaaS ne peut pas se permettre de perdre
50AI News 

OpenAI Frontier place les agents IA d'entreprise au cœur d'un combat que le secteur SaaS ne peut pas se permettre de perdre

OpenAI a lancé Frontier en février, une plateforme d'agents IA d'entreprise conçue comme une couche sémantique centralisée connectant entrepôts de données, CRM et outils internes — avec pour premiers clients Uber, State Farm, Intuit et Thermo Fisher Scientific. La CFO Sarah Friar vise à faire passer les revenus entreprise de 40% à 50% d'ici fin d'année, et les premiers résultats sont frappants : 90% du temps administratif libéré pour des commerciaux, 1 500 heures économisées par mois chez un client tech, et un processus d'optimisation industriel réduit de six semaines à un seul jour. La plateforme, volontairement ouverte aux agents Google, Microsoft et Anthropic, représente une menace structurelle directe pour le modèle SaaS à licences par siège, dont la rentabilité repose sur l'hypothèse que l'usage logiciel est indexé sur les effectifs humains.

UELes entreprises européennes utilisant des logiciels SaaS à licences par siège (Salesforce, SAP, ServiceNow) doivent anticiper une disruption tarifaire structurelle si ce modèle d'agents IA se généralise en Europe.

BusinessOpinion
1 source