Aller au contenu principal

Dossier Sam Altman

83 articles

Sam Altman, PDG d'OpenAI : décisions produit, conflit Musk vs Altman, polémiques internes, vision long terme et notes stratégiques.

Le procès entre Elon Musk et Sam Altman autour d'OpenAI approche
1The Information AI RégulationReglementation

Le procès entre Elon Musk et Sam Altman autour d'OpenAI approche

Le procès le plus attendu du secteur de l'intelligence artificielle s'ouvre lundi dans un tribunal fédéral d'Oakland, en Californie. Elon Musk affronte Sam Altman, PDG d'OpenAI, ainsi que la société elle-même et son partenaire Microsoft, dans une bataille judiciaire dont la sélection du jury marque le coup d'envoi cette semaine. Les audiences devraient se poursuivre jusqu'à la mi-mai 2025, sauf accord de dernière minute entre les parties. L'enjeu central est l'âme même d'OpenAI : Musk, cofondateur et ancien administrateur de l'organisation, accuse Altman et ses associés d'avoir trahi la mission originelle de la structure, fondée en 2015 comme entité à but non lucratif destinée à développer une IA bénéfique pour l'humanité. La transformation progressive d'OpenAI en entreprise commerciale valorisée à plusieurs dizaines de milliards de dollars, avec Microsoft comme investisseur majeur à hauteur de 13 milliards de dollars, est au cœur des griefs. Pour l'industrie, le verdict pourrait redéfinir les obligations juridiques des organisations technologiques qui changent de statut en cours de route. Ce conflit s'inscrit dans une rivalité personnelle et commerciale intense entre Musk et Altman. Après avoir quitté le conseil d'administration d'OpenAI en 2018, Musk a fondé sa propre entreprise d'IA, xAI, et lancé le modèle Grok, concurrent direct de ChatGPT. Une première plainte avait été déposée en 2024, puis retirée, avant d'être reformulée. L'issue du procès pourrait contraindre OpenAI à revoir sa structure de gouvernance à un moment critique de sa montée en puissance.

UELe précédent juridique américain pourrait alimenter la réflexion réglementaire européenne sur les obligations des organisations technologiques qui changent de statut à but non lucratif vers commercial.

1 source
Le procès Musk-Altman promet des révélations compromettantes
2The Verge AI 

Le procès Musk-Altman promet des révélations compromettantes

Un procès opposant Elon Musk à Sam Altman et à OpenAI doit s'ouvrir le 27 avril 2026 à Oakland, en Californie. Musk, cofondateur de l'organisation, avait quitté son conseil d'administration en 2018 après ne pas avoir obtenu le poste de PDG, laissant Altman aux commandes. Sa plainte accuse OpenAI de fraude, de rupture de contrat, de pratiques commerciales déloyales et de publicité mensongère, les théories juridiques ont évolué au fil des mois, mais l'objectif reste le même : mettre OpenAI en difficulté devant les tribunaux. L'enjeu dépasse largement la dimension juridique. Les deux hommes devront témoigner sous serment à un moment particulièrement sensible pour OpenAI, qui est en pleine transformation de son statut d'organisation à but non lucratif en entité commerciale valorisée à plusieurs centaines de milliards de dollars. Les dépositions pourraient révéler des détails embarrassants sur la gouvernance interne, les décisions stratégiques et les tensions entre fondateurs que ni Musk ni Altman n'ont intérêt à voir étalées publiquement. Musk a fondé OpenAI en 2015 aux côtés d'Altman et d'autres investisseurs, avec la promesse d'un développement de l'IA dans l'intérêt général. Depuis son départ, il a fondé xAI et son propre modèle Grok, devenant un concurrent direct. Ce procès s'inscrit dans une guerre plus large entre deux visions de l'IA et deux ego surdimensionnés, dans un secteur où les alliances et trahisons façonnent autant l'industrie que les modèles eux-mêmes.

UELes révélations sur la gouvernance interne d'OpenAI pourraient fragiliser la confiance des régulateurs et partenaires européens au moment où l'entreprise restructure son statut juridique, avec des implications potentielles sur sa conformité à l'AI Act.

BusinessOpinion
1 source
GPT-5.5 et la super-application OpenAI Codex
3Latent Space 

GPT-5.5 et la super-application OpenAI Codex

OpenAI a lancé GPT-5.5 le 22 avril 2026, une semaine après la sortie de Claude Opus 4.7 par Anthropic. Le modèle est présenté comme "une nouvelle classe d'intelligence pour le travail réel" et déployé progressivement sur ChatGPT et Codex, l'accès API étant temporairement limité en attendant des vérifications de sécurité supplémentaires. Les benchmarks publiés sont impressionnants : 82,7% sur Terminal-Bench 2.0, 58,6% sur SWE-Bench Pro, 84,9% sur GDPval, 78,7% sur OSWorld-Verified et 84,4% sur BrowseComp. Le tarif API est fixé à 5$/30$ par million de tokens en entrée/sortie pour la version standard, et 30$/180$ pour la version Pro. Selon Artificial Analysis, GPT-5.5 en configuration medium atteint le même niveau que Claude Opus 4.7 au maximum sur leur Intelligence Index, mais à un quart du coût : environ 1 200 dollars contre 4 800. La fenêtre de contexte atteint 1 million de tokens en API, et Sam Altman souligne que le modèle consomme moins de tokens par tâche que son prédécesseur GPT-5.4. Ce lancement ne se résume pas à une simple mise à jour de modèle. GPT-5.5 marque un pivot stratégique d'OpenAI vers l'inférence agentique longue durée et l'efficacité économique, deux dimensions qui comptent davantage pour les entreprises que les scores bruts sur benchmarks académiques. La capacité à exécuter des tâches complexes avec moins d'interventions humaines change concrètement la proposition de valeur pour les développeurs et les équipes techniques. En parallèle, OpenAI a profondément étendu Codex : contrôle du navigateur, intégration avec Google Sheets, Slides, Docs et PDFs, dictée à l'échelle du système d'exploitation, et un mode de revue automatique reposant sur un agent secondaire dit "gardien" qui réduit le nombre de validations nécessaires sur les tâches longues. Codex n'est plus un outil de coding assisté : il devient un agent capable de naviguer dans des interfaces web, capturer des captures d'écran, itérer jusqu'à complétion, et traiter des flux de travail qui couvrent l'assurance qualité, la bureautique et la construction d'applications. Ce lancement s'inscrit dans une course frontale entre OpenAI, Anthropic et Google, dont Gemini 3.1 Pro Preview atteint un niveau comparable à GPT-5.5 à environ 900 dollars selon Artificial Analysis. OpenAI a co-conçu le modèle avec les systèmes NVIDIA GB200/300, et affirme que GPT-5.5 a contribué à améliorer sa propre infrastructure d'inférence, une affirmation qui illustre la direction que prend la compagnie. Sam Altman positionne désormais explicitement OpenAI comme une "entreprise d'inférence IA", signalant que la compétition ne se joue plus seulement sur la qualité des modèles mais sur leur coût d'exploitation à l'échelle. La décision d'absorber Prism et de faire de Codex la base d'une stratégie de superapp unifiée suggère qu'OpenAI cherche à verrouiller les workflows professionnels dans son écosystème, bien au-delà du simple chat.

UELes développeurs et entreprises européens bénéficient d'un modèle agentique de niveau SOTA à coût sensiblement réduit, ce qui modifie concrètement les arbitrages de déploiement IA à grande échelle sur le marché européen.

💬 Le ratio coût/perf, c'est là que ça se joue. GPT-5.5 medium au niveau d'Opus 4.7 max pour un quart du prix, les équipes qui hésitaient vont trancher vite. Et ce pivot vers une superapp avec Codex en moteur, c'est plus ambitieux qu'il n'y paraît : si l'agent gardien tient vraiment sur des tâches longues, OpenAI verrouille les workflows pro bien plus efficacement qu'avec n'importe quel score sur un benchmark.

LLMsOpinion
1 source
Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses
4Le Big Data 

Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses

OpenAI a officiellement lancé GPT-5.5 le 23 avril 2026, confirmant ainsi les rumeurs qui circulaient depuis plusieurs jours. Sam Altman a annoncé le modèle directement sur X, déclarant simplement qu'il "l'apprécie beaucoup", une formulation sobre pour un lancement que l'entreprise présente comme un véritable saut technologique. Le modèle est immédiatement disponible dans ChatGPT pour les abonnés Plus, Pro et Business sous la dénomination GPT-5.5 Thinking, avec une version GPT-5.5 Pro réservée aux traitements de données massifs exigeant une précision maximale. Les développeurs accédant via Codex bénéficient quant à eux d'une fenêtre de contexte de 400 000 tokens, suffisante pour ingérer des projets entiers en une seule passe. Ce qui distingue fondamentalement GPT-5.5 de ses prédécesseurs, c'est son autonomie opérationnelle. Là où les modèles précédents attendaient une instruction à chaque étape, celui-ci est conçu pour piloter des tâches complexes de bout en bout, en analysant, planifiant et utilisant les logiciels disponibles sans intervention humaine continue. En développement logiciel, cela se traduit concrètement par une capacité à résoudre des projets GitHub entiers en une seule passe, à déboguer de manière autonome en identifiant l'origine d'une faille là où un développeur passerait plusieurs heures, et à anticiper les effets de bord sur le reste du système. L'enthousiasme dans l'industrie est tel qu'un ingénieur chez NVIDIA a comparé l'idée de perdre l'accès au modèle à une amputation physique. Parallèlement, GPT-5.5 maintient une latence comparable à GPT-5.4 tout en consommant moins de tokens pour produire des résultats de meilleure qualité, ce qui améliore directement l'équation coût-performance pour les usages intensifs. Ce lancement s'inscrit dans une course à l'IA générative où chaque acteur cherche à franchir le palier de l'agent autonome, capable d'agir sur un ordinateur plutôt que de simplement répondre à des questions. OpenAI positionnne GPT-5.5 explicitement comme une "nouvelle classe d'intelligence pour le travail réel", ce qui signale un pivot stratégique vers les cas d'usage professionnels et les pipelines agentiques, au détriment du chatbot conversationnel grand public. Google, Anthropic et Meta s'engagent sur le même terrain avec leurs propres modèles capables d'utiliser des outils et d'exécuter des tâches multi-étapes. La disponibilité immédiate dans Codex suggère qu'OpenAI mise sur les développeurs comme vecteur d'adoption prioritaire, une population qui teste vite, publie ses benchmarks et influence ensuite les décisions d'achat des entreprises. La prochaine étape logique sera l'intégration plus profonde dans des environnements d'entreprise, avec des questions de sécurité, de traçabilité et de gouvernance que GPT-5.5 n'adresse pas encore publiquement.

UELes développeurs et entreprises européens utilisant l'API OpenAI via Codex peuvent immédiatement tester les capacités agentiques de GPT-5.5, ce qui soulève des questions de gouvernance et de traçabilité directement pertinentes dans le contexte du règlement européen sur l'IA.

LLMsOpinion
1 source
Le peuple n'aspire pas à l'automatisation
5The Verge AI 

Le peuple n'aspire pas à l'automatisation

Un sondage NBC News publié en avril 2026 place l'intelligence artificielle parmi les technologies les moins appréciées des Américains, avec un taux de popularité inférieur à celui de l'agence ICE et à peine au-dessus du niveau d'approbation du Parti démocrate ou de la guerre en Iran. Ce résultat est d'autant plus frappant que près des deux tiers des sondés déclarent avoir utilisé ChatGPT ou Copilot au cours du dernier mois. Quinnipiac confirme la tendance : plus de la moitié des Américains estiment que l'IA fera plus de mal que de bien, plus de 80 % s'en disent inquiets, et seulement 35 % s'y montrent enthousiastes. Chez la génération Z, le rejet est encore plus marqué : selon Gallup, seuls 18 % se disent optimistes face à l'IA, contre 27 % l'année précédente, tandis que 31 % expriment de la colère, contre 22 % un an plus tôt. Le phénomène dépasse les sondages : des élus locaux favorables aux data centers ont été battus aux urnes, d'autres ont vu leur domicile visé par des tirs. Le PDG d'OpenAI Sam Altman a lui-même été la cible d'un cocktail Molotov lancé contre sa maison. Ce fossé entre l'enthousiasme de l'industrie technologique et le rejet croissant du grand public constitue une rupture politique et sociale inédite. Satya Nadella, PDG de Microsoft, a reconnu publiquement que le secteur doit encore « mériter la permission sociale de consommer de l'énergie en prouvant qu'il fait le bien dans le monde ». Cette permission n'a clairement pas été obtenue. La résistance s'exprime désormais dans les urnes, dans les rues et dans une montée de la violence que des responsables comme Nilay Patel, rédacteur en chef de The Verge et animateur du podcast Decoder, condamnent sans ambiguïté, tout en pointant la responsabilité des élites dans le sentiment d'impuissance qui l'alimente. Ce contexte prend racine dans ce que Patel appelle le « software brain » : une manière de penser le monde héritée du numérique, qui réduit tout à des algorithmes, des bases de données et des boucles logiques. Marc Andreessen en avait posé les bases dès 2011 dans son célèbre article du Wall Street Journal, « Why software is eating the world ». L'IA a depuis turbocompressé cette logique, creusant l'écart entre ceux qui conçoivent les systèmes et ceux qui les subissent. Le discours ambiant des dirigeants du secteur n'arrange rien : Dario Amodei, PDG d'Anthropic, affirme publiquement que l'IA supprimera l'ensemble des emplois d'entrée de gamme, alimentant une forme de nihilisme que ni les politiques ni les entreprises technologiques ne semblent encore prêts à affronter sérieusement.

UELes tendances de rejet croissant de l'IA documentées aux États-Unis trouvent des échos similaires en Europe, où l'AI Act reflète des préoccupations citoyennes comparables sur l'emploi et la concentration du pouvoir technologique.

SociétéOpinion
1 source
OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute
6Le Big Data 

OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute

Le 22 avril 2026, des utilisateurs de Codex, l'environnement de développement assisté d'OpenAI, ont brièvement aperçu dans un sélecteur de modèles interne des noms inconnus : GPT-5.5, oai-2.1, et plusieurs variantes expérimentales non annoncées. L'accès a disparu en quelques minutes, mais les captures d'écran avaient déjà circulé sur X et dans les forums de développeurs. La fuite s'est produite dans un contexte particulier : OpenAI menait simultanément un test élargi dans Codex, confirmé par Rohan Varma, ingénieur de l'entreprise, touchant environ 100 % des utilisateurs, tous abonnements confondus, gratuits et payants. Sam Altman, PDG d'OpenAI, n'a pas démenti les spéculations autour d'un lancement imminent. Interrogé par un utilisateur évoquant une sortie possible dès le jeudi suivant, il a répondu par un simple emoji, sans démentir ni confirmer. Au-delà de l'anecdote, les retours techniques des développeurs ayant eu accès au modèle pendant ce court intervalle sont frappants. Plusieurs signalent une résolution de bugs front-end en quelques minutes là où GPT-4o nécessitait plusieurs heures. D'autres notent une meilleure cohérence dans la génération de code HTML et Tailwind CSS. Si ces observations restent parcellaires et non vérifiables à grande échelle, elles alimentent l'idée qu'OpenAI prépare un saut qualitatif significatif, pas seulement une mise à jour incrémentale. Pour l'industrie du développement logiciel assisté par IA, un modèle nettement plus rapide et fiable sur les tâches de code changerait concrètement les flux de travail quotidiens de millions de développeurs. La mise à disposition sur tous les plans tarifaires, si elle se confirme, représenterait également un changement de stratégie commerciale notable par rapport à la segmentation actuelle. Cette fuite s'inscrit dans une séquence d'annonces très dense côté OpenAI : ChatGPT Images 2.0 venait tout juste d'être déployé, renforçant la génération d'images précises directement dans le chat. Le rythme de publication soutenu d'OpenAI répond à une pression concurrentielle extrême. Anthropic a simultanément modifié son offre Claude Code en limitant l'accès pour certains abonnés Pro, tandis que Google, Meta et Mistral multiplient eux aussi les sorties. Dans ce contexte de course aux annonces, la communication ambiguë d'Altman, entre silence et émoji, est devenue une méthode rodée pour entretenir l'attention sans s'engager officiellement. GPT-5.5 pourrait être un modèle intermédiaire entre GPT-5 et une future version majeure, ou simplement un nom de test interne jamais destiné au public. La réponse pourrait venir dans les jours suivants, si OpenAI tient le calendrier informel que son PDG semble avoir laissé entrevoir.

UELa cadence de sorties accélérée d'OpenAI accentue la pression concurrentielle sur les acteurs européens, en particulier Mistral, cité dans l'article comme rival direct dans la course aux annonces de modèles.

LLMsOpinion
1 source
Résistance
7MIT Technology Review 

Résistance

Un mouvement de résistance contre l'intelligence artificielle prend de l'ampleur à travers le monde, mobilisant des profils aussi divers que des syndicalistes, des parents, des artistes et des élus. En février 2026, des centaines de personnes ont défilé devant les sièges londoniens d'OpenAI, Google DeepMind et Meta, dans l'une des plus grandes manifestations anti-IA jamais organisées. Aux États-Unis, en mars, une coalition improbable réunissant des républicains MAGA, des socialistes démocrates, des militants syndicaux et des responsables religieux a signé une déclaration commune intitulée "Pro-Human AI Declaration", affirmant que l'IA doit servir l'humanité, non la remplacer. Ce même mois, la signature d'un contrat entre OpenAI et le Pentagone a provoqué une vague de désinstallations de ChatGPT, tandis que des manifestants taguaient à la craie les abords du siège de la société à San Francisco. En avril, un homme du Texas a été arrêté après avoir prétendument lancé un cocktail Molotov au domicile du PDG Sam Altman, porteur d'un manifeste anti-IA. Les inquiétudes sont à la fois symboliques et très concrètes. Un sondage Pew réalisé l'année dernière révèle que la moitié des Américains s'inquiètent de la place croissante de l'IA dans leur quotidien, et que les trois quarts estiment qu'elle pourrait représenter une menace pour l'humanité. Sur le plan économique, les suppressions d'emplois s'accélèrent : en février, la fintech Block a annoncé le licenciement de 40 % de ses effectifs, et quelques semaines plus tard, l'éditeur de logiciels Atlassian a prévu de couper 1 600 postes. Des poursuites judiciaires s'accumulent contre des chatbots accusés d'avoir conduit des adolescents au suicide ou à l'automutilation. Dans certaines villes américaines, des parents réclament un moratoire de deux ans sur l'IA dans les écoles, tandis que les communautés rurales s'opposent à l'installation de centres de données qui font grimper les factures d'énergie, polluent et consomment des terres agricoles. Au second trimestre 2025, des militants ont réussi à bloquer 98 milliards de dollars de projets de data centers aux États-Unis. Cette résistance commence à peser sur les décisions politiques et industrielles. New York et la Californie ont adopté de nouvelles règles encadrant les chatbots de compagnie. Au Royaume-Uni, le gouvernement a fait marche arrière en mars sur un projet autorisant les entreprises d'IA à s'entraîner sur des œuvres protégées par le droit d'auteur, sous la pression des artistes. Donald Trump a de son côté obtenu des dirigeants de l'IA l'engagement de financer eux-mêmes la production d'énergie nécessaire à leurs infrastructures. Ces avancées restent partielles, mais elles signalent un changement : les populations refusent de laisser aux seules entreprises technologiques le soin de définir à quoi ressemblera le monde de demain.

UELe Royaume-Uni a fait marche arrière sur l'autorisation d'entraîner des modèles sur des œuvres protégées par le droit d'auteur, une décision directement applicable aux industries créatives européennes et susceptible de peser sur l'interprétation de l'AI Act en matière de droits d'auteur.

SociétéOpinion
1 source
ChatGPT Images 2.0 d'OpenAI gère le texte multilingue, les infographies, les diapositives, les cartes et le manga
8VentureBeat AI 

ChatGPT Images 2.0 d'OpenAI gère le texte multilingue, les infographies, les diapositives, les cartes et le manga

OpenAI a officiellement lancé ChatGPT Images 2.0 ce mois d'avril 2026, quelques mois seulement après la sortie de GPT-Image-1.5 en décembre 2025. Le nouveau modèle, baptisé en interne "duct tape" lors de semaines de tests discrets sur la plateforme LM Arena AI, est désormais accessible à tous les abonnés ChatGPT, tous niveaux confondus. Pour les développeurs, il est disponible via l'API sous le nom gpt-image-2. Ses capacités dépassent largement celles de son prédécesseur : génération de longs blocs de texte multilingues intégrés dans une image, création d'infographies complètes, de diapositives, de cartes, de mangas, de plans d'appartement, de grilles d'images multiples et de modèles de personnages sous différents angles. Le modèle peut également reproduire avec une fidélité troublante des interfaces utilisateur et des captures d'écran de sites réels, intégrer des résultats de recherche web directement dans une image, et s'appliquer aux photos téléversées par les utilisateurs. OpenAI a aussi introduit une suite de fonctionnalités baptisée "Thinking" pour les abonnés ChatGPT. Ce lancement marque un tournant dans la manière dont OpenAI conçoit la création visuelle. La philosophie revendiquée par l'entreprise est explicite dans ses notes de version : "Les images sont un langage, pas une décoration. Une bonne image fait ce que fait une bonne phrase : elle sélectionne, organise et révèle." En pratique, cela signifie que des professionnels du marketing, de la communication, du journalisme ou de la formation peuvent désormais produire des visuels informationnels complexes sans compétences en design. La capacité à reproduire des figures publiques réelles, comme le PDG Sam Altman, soulève aussi des questions sur l'usage de cet outil à des fins de désinformation, notamment dans le contexte de campagnes d'influence politique utilisant des personnages fictifs présentés comme de "vrais Américains" soutenant Donald Trump, un phénomène récemment documenté par le New York Times. La sortie de ChatGPT Images 2.0 intervient dans un marché de la génération d'images IA de plus en plus disputé. Google avait lancé en février 2026 son propre modèle Nano Banana 2, aussi connu sous le nom Gemini 3 Pro Image, capable lui aussi d'intégrer du texte dense dans les images. Mais selon les premiers tests comparatifs, la solution d'OpenAI surpasse Google sur la fidélité des interfaces et la gestion de compositions multi-images. Face aux risques d'abus, Adele Li, responsable produit ChatGPT Images chez OpenAI, a réaffirmé lors d'un briefing presse l'engagement de l'entreprise en matière de sécurité : les images générées sont taguées avec des métadonnées indiquant leur origine artificielle, et des garde-fous spécifiques visent à prévenir toute interférence électorale. OpenAI insiste sur le fait que ces protections distinguent ChatGPT des nouveaux entrants du secteur, qui opèrent avec "des standards et des philosophies différents".

UELes capacités avancées de reproduction d'interfaces réelles et de personnages publics accroissent les risques de désinformation en Europe, notamment à l'approche d'échéances électorales.

CréationActu
1 source
GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.
9Le Big Data 

GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.

OpenAI a déployé discrètement GPT-Image-2 le 21 avril 2026, sans conférence de presse ni annonce officielle de Sam Altman, directement sur les comptes ChatGPT web et mobile de ses utilisateurs dans le monde entier. Ce nouveau moteur de génération d'images représente un saut qualitatif majeur par rapport à son prédécesseur sur trois dimensions précises : le rendu de texte, la gestion de compositions complexes et le photoréalisme. Les premiers tests diffusés sur X montrent des affiches de films avec une typographie parfaitement lisible, des maquettes de Unes du New York Times où chaque colonne et chaque ligne de crédit est nette, et surtout une grille 10x10 contenant 100 objets distincts commençant par la lettre A, chacun correctement nommé et illustré sans aucune erreur de cohérence visuelle ou textuelle. Ces avancées changent concrètement ce que les professionnels peuvent faire avec l'IA générative. Jusqu'ici, intégrer du texte lisible dans une image produite par IA relevait de la loterie : les modèles produisaient systématiquement des caractères déformés, illisibles, mélangés à du pixel noise. Avec GPT-Image-2, cette limite disparaît, ce qui ouvre des usages immédiatement opérationnels pour les designers graphiques, les équipes marketing et les créateurs de contenu : prototypage d'interfaces, création d'affiches, génération de visuels publicitaires avec du texte intégré, le tout en quelques secondes et sans retouche. La gestion de la complexité spatiale, illustrée par la grille 10x10, signifie également que le modèle peut produire des compositions denses et structurées sans perte de cohérence, là où Midjourney et les outils de Google montrent encore des limites significatives dès que la scène se complique. Ce lancement silencieux un mardi s'inscrit dans une stratégie qui n'est pas anodine. Plusieurs observateurs notent que ce type de déploiement discret précède souvent, chez OpenAI, une annonce plus massive dans les jours suivants, des rumeurs évoquent une présentation liée à GPT-5.5 dès jeudi. GPT-Image-2 est par ailleurs le moteur qui alimente déjà l'API Images d'OpenAI depuis quelques semaines, utilisé notamment par des applications tierces comme ChatGPT Canvas et certains outils Canva. Son ouverture progressive au grand public via ChatGPT marque une étape de maturité : le modèle sort du contexte développeur pour entrer dans l'usage quotidien de masse. La concurrence, notamment Midjourney, qui n'a toujours pas de produit web grand public stable, et Adobe Firefly, va devoir répondre à un outil qui combine désormais photoréalisme, précision textuelle et gestion de la complexité dans un seul package accessible à tous.

UELes designers et équipes marketing français et européens peuvent immédiatement intégrer cet outil à leurs workflows pour générer des visuels avec texte lisible intégré, sans retouche manuelle.

💬 Le rendu de texte dans les images IA, c'était le dernier gros problème non résolu. GPT-Image-2 le ferme pour de bon : grille 10x10 sans une seule erreur, affiches avec typo lisible au premier coup d'oeil, c'est le genre de démo qui change ce qu'on peut promettre à un client dès demain matin. Midjourney n'a toujours pas de produit web stable, là ils vont vraiment souffrir.

CréationOpinion
1 source
Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW
10Next INpact 

Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW

Anthropic et Amazon ont annoncé lundi un accord stratégique de grande ampleur, combinant un investissement massif en capital et une promesse de dépenses garanties en infrastructure. Amazon injecte 5 milliards de dollars dans Anthropic, avec une option ouverte sur 20 milliards supplémentaires dont les conditions restent floues. En contrepartie, Anthropic s'engage à mobiliser l'équivalent de 5 gigawatts de puissance de calcul sur les infrastructures AWS, dont près d'1 GW de capacité Trainium2 et Trainium3 opérationnelle d'ici fin 2026. Ces engagements représenteraient, selon Anthropic, plus de 100 milliards de dollars de dépenses sur dix ans. L'accord inclut également un volet commercial inédit : la Claude Platform, l'accès API aux modèles d'Anthropic, sera intégrée directement dans l'écosystème AWS, avec une facturation unifiée et sans contrats séparés, actuellement en bêta privée. Cet accord repose le cloud computing au centre de la compétition entre les grands laboratoires d'IA. Pour Amazon, verrouiller Anthropic comme client et partenaire stratégique sur ses puces Trainium renforce la crédibilité d'une gamme encore peu éprouvée face aux GPU de Nvidia. Pour Anthropic, l'intégration native dans AWS ouvre un accès direct à des centaines de milliers d'entreprises clientes du leader du cloud, sans passer par l'intermédiaire de Bedrock, le service agnostique d'Amazon qui dilue la visibilité des modèles individuels. La facturation unifiée réduit la friction d'adoption pour les équipes techniques, ce qui pourrait accélérer significativement la croissance commerciale d'Anthropic auprès des entreprises soumises à des contraintes de gouvernance strictes. Cet accord s'inscrit dans une relation qui remonte à fin 2023, Amazon ayant déjà investi 8 milliards de dollars dans Anthropic en deux tranches. Il intervient dans un contexte de course aux engagements d'infrastructure entre les grands acteurs de l'IA : Anthropic avait évoqué fin octobre son intention d'exploiter un million de TPU Google, et affirme aujourd'hui utiliser un million de puces Trainium2. La superposition de ces engagements pose des questions sur leur compatibilité réelle et sur la précision des chiffres en équivalent-puissance, une unité de mesure devenue courante mais difficile à vérifier. Sur le plan financier, Anthropic profite de l'annonce pour réaffirmer une trajectoire de revenus annualisés supérieure à 3 milliards de dollars, contre 9 milliards de dollars projetés fin 2025, ce qui la placerait désormais devant OpenAI, dont Sam Altman revendiquait 2 milliards de dollars de chiffre d'affaires mensuel en mars dernier.

UEL'intégration de Claude Platform directement dans l'écosystème AWS simplifie l'accès aux modèles d'Anthropic pour les entreprises européennes déjà clientes du cloud Amazon, réduisant la friction d'adoption sans contrats séparés.

BusinessOpinion
1 source
Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
11Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité
12The Verge AI 

Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité

Le journaliste d'investigation Ronan Farrow, connu notamment pour avoir révélé l'affaire Harvey Weinstein, a publié dans The New Yorker une enquête fleuve de plus de 17 000 mots sur Sam Altman, PDG d'OpenAI, co-écrite avec Andrew Marantz après dix-huit mois de reporting. Le texte constitue le récit le plus complet à ce jour de l'épisode de novembre 2023, lorsque le conseil d'administration d'OpenAI avait brutalement licencié Altman, officiellement pour manque de franchise, avant de le réintégrer quelques jours plus tard sous la pression des employés et des investisseurs. L'enquête plonge aussi dans la vie personnelle d'Altman, ses investissements, ses démarches pour attirer des capitaux en provenance du Moyen-Orient, et ses propres réflexions sur ses traits de caractère. Une source citée dans l'article résume la chose sans détour : Altman serait "unconstrained by the truth", c'est-à-dire affranchi de toute contrainte vis-à-vis de la vérité. Ce portrait compte parce qu'Altman n'est pas seulement le patron d'une startup : en quelques années, il a transformé un laboratoire de recherche à but non lucratif en une entreprise privée valorisée à près de mille milliards de dollars, faisant de lui le visage le plus visible de l'industrie de l'intelligence artificielle mondiale. La question de sa fiabilité dépasse donc largement le cadre d'une querelle interne. Farrow note que, au fil de ses dix-huit mois de travail, les interlocuteurs sont devenus nettement plus enclins à s'exprimer publiquement et nominalement sur la tendance d'Altman à "étirer la vérité", un signe que le climat autour d'OpenAI a changé, et que les inquiétudes se font de plus en plus entendre, y compris dans des cercles qui se taisaient jusqu'ici. OpenAI a été fondé en 2015 comme organisation à but non lucratif censée développer l'IA de façon sûre et ouverte, avant de pivoter vers un modèle hybride à profit plafonné, puis de lever des milliards auprès de Microsoft et d'autres grands investisseurs. La montée en puissance de ChatGPT depuis fin 2022 a propulsé Altman sur la scène mondiale, lui donnant une influence considérable sur les décideurs politiques, les régulateurs et les marchés financiers. C'est précisément cette centralité qui rend l'enquête de Farrow structurellement importante : quand un seul individu concentre autant de pouvoir sur une technologie aussi pervasive, la question de son rapport à la vérité cesse d'être anecdotique. Farrow lui-même affirme avoir perçu une évolution chez Altman au cours de leurs nombreux entretiens, sans pour autant que cela modifie son analyse de fond sur les dynamiques qui ont conduit à la crise de gouvernance de 2023.

UELa fiabilité de Sam Altman et la gouvernance d'OpenAI influencent directement les discussions réglementaires européennes, notamment la mise en œuvre de l'AI Act et les relations entre décideurs politiques de l'UE et la principale organisation IA mondiale.

BusinessOpinion
1 source
« L’IA va nous détruire » : le manifeste du premier terroriste anti-ChatGPT
13Le Big Data 

« L’IA va nous détruire » : le manifeste du premier terroriste anti-ChatGPT

Un homme a lancé un cocktail Molotov contre la résidence de Sam Altman, PDG d'OpenAI, située au 950 Lombard Street à San Francisco, dans le quartier de Russian Hill, une propriété estimée à 27 millions de dollars. L'attaque, survenue début avril 2026, s'inscrit dans le cadre d'un manifeste de 45 pages intitulé « La Dernière Résistance Humaine », diffusé sur X et 4chan, qui appelle au sabotage physique des centres de données et à la destruction des infrastructures d'intelligence artificielle générative. L'assaillant, radicalisé par les thèses néo-luddites, a été placé en garde à vue. Le manifeste identifie 12 sites critiques aux États-Unis, principalement en Californie et en Oregon, hébergeant des clusters de processeurs H100 de Nvidia, et réclame l'arrêt immédiat de l'entraînement de modèles comme GPT-5 ainsi que le démantèlement des infrastructures Microsoft Azure. Le FBI et le Department of Homeland Security classent désormais les extrémistes anti-technologie comme une menace prioritaire. Cet acte marque un tournant dans la perception des risques liés au développement de l'IA : pour la première fois, la violence physique ciblée contre des dirigeants tech s'organise autour d'une idéologie structurée et d'une liste de cibles précises. L'onde de choc a immédiatement atteint les investisseurs de Y Combinator et les dirigeants de Google DeepMind. OpenAI a multiplié son budget sécurité par cinq, déployant un blindage balistique de niveau NIJ III sur les vitres du domicile d'Altman et une garde rapprochée composée d'anciens Navy SEALs, pour un coût supérieur à 800 000 dollars par mois. Des algorithmes de surveillance des forums radicaux ont également été activés. La menace dépasse le cas individuel : elle interroge la capacité des entreprises d'IA à protéger leurs dirigeants et infrastructures dans un climat de défiance croissante. La rhétorique du manifeste est paradoxale : son auteur cite les propres avertissements de Sam Altman et du prix Nobel Geoffrey Hinton sur les risques existentiels de l'intelligence artificielle générale pour légitimer le recours à la violence. Ce retournement sémantique rappelle la trajectoire de Theodore Kaczynski, l'Unabomber, dont le manifeste fut publié par le New York Times en 1995 après une campagne d'attentats contre des universitaires et des compagnies aériennes. Là où les luddites du XIXe siècle s'en prenaient aux métiers à tisser pour protéger leurs emplois, et où Kaczynski visait la société industrielle en général, ce nouveau mouvement cible spécifiquement les architectes des grands modèles de langage et les GPU qui les font tourner. L'analyse de CrowdStrike confirme que le document circule dans des réseaux cryptés et pourrait inspirer des actes similaires, faisant basculer le débat sur les risques de l'IA du registre académique vers celui de la sécurité nationale.

UEL'émergence d'un mouvement néo-luddite violent aux États-Unis pourrait inspirer des actes similaires en Europe, contraignant les entreprises et infrastructures d'IA européennes à renforcer leur sécurité physique.

💬 On savait que la tension montait, mais là on a franchi un cap. Ce qui est glaçant, c'est pas l'acte en lui-même, c'est le manifeste : 45 pages structurées, une liste de 12 cibles précises, une idéologie qui recycle les propres mots d'Altman pour justifier la violence. C'est plus un dérangé isolé, c'est le début d'une doctrine.

SécuritéOpinion
1 source
Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA
14The Verge AI 

Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA

Un homme de 20 ans a été accusé d'avoir lancé un cocktail Molotov au domicile de Sam Altman, PDG d'OpenAI, à San Francisco. Selon le San Francisco Chronicle, l'auteur présumé avait exprimé par écrit sa crainte que la course à l'IA ne conduise à l'extinction de l'humanité. Deux jours après cette première attaque, la résidence d'Altman aurait été ciblée une seconde fois, d'après le San Francisco Standard. Une semaine auparavant, un conseiller municipal d'Indianapolis avait signalé treize coups de feu tirés à sa porte, accompagnés d'un message "No Data Centers", après avoir soutenu un projet de rezonage en faveur d'un opérateur de centres de données. Ces incidents ont déclenché une vive inquiétude au sein et autour de l'industrie de l'IA. Ils signalent que l'hostilité envers le secteur technologique ne reste plus confinée aux pétitions ou aux protestations en ligne, mais peut déboucher sur des actes de violence physique ciblant directement des dirigeants et des élus locaux. Pour une industrie déjà sous pression réglementaire et médiatique, ce glissement vers la menace concrète représente un changement de nature dans le rapport avec l'opinion publique. La résistance aux grandes infrastructures numériques, notamment aux centres de données énergivores, et aux avancées rapides de l'IA existe depuis plusieurs années dans diverses communautés. Des groupes s'inquiètent des risques existentiels liés à l'IA générale, tandis que d'autres dénoncent l'impact environnemental et foncier des data centers. Ces attaques surviennent dans un contexte de débat intense sur la régulation de l'IA aux États-Unis et en Europe, et posent la question de la sécurité des figures publiques du secteur technologique dans les mois à venir.

UECes actes de violence aux États-Unis pourraient amplifier les appels à une meilleure régulation de l'IA en Europe, sans impact direct immédiat sur la France ou l'UE.

SociétéOpinion
1 source
The Download : l'état de l'IA et la protection des ours par drones
15MIT Technology Review 

The Download : l'état de l'IA et la protection des ours par drones

Le rapport annuel Stanford AI Index 2026, publié cette semaine, dresse un état des lieux chiffré de l'intelligence artificielle mondiale et confirme une réalité fracturée. Parmi ses données les plus frappantes : 73 % des experts américains estiment que l'IA a un impact positif sur l'emploi, contre seulement 23 % du grand public. Cet écart se retrouve dans les domaines de la santé et de l'économie. Par ailleurs, un homme du Texas a été inculpé pour tentative de meurtre sur la personne de Sam Altman, PDG d'OpenAI, après avoir lancé un cocktail Molotov sur sa résidence vendredi dernier. Le suspect aurait détenu une liste d'autres dirigeants de l'industrie de l'IA. Dans le même temps, un mémo interne leaked révèle qu'OpenAI planifie une offensive directe contre son concurrent Anthropic, tout en accusant Microsoft d'avoir "limité sa capacité" à atteindre ses clients, et en cultivant une alliance naissante avec Amazon. Ces développements illustrent les tensions profondes qui traversent l'écosystème IA. Le fossé entre experts et grand public n'est pas anodin : ceux qui utilisent l'IA au quotidien pour le code et les tâches techniques la voient à son meilleur, tandis que le reste de la population fait face à une expérience bien plus inégale. Ce décalage de perception alimente des débats politiques et sociaux mal calibrés. Sur le front compétitif, la rivalité entre grands laboratoires s'intensifie à un moment critique : les meilleurs agents IA n'accomplissent encore que la moitié des tâches complexes qu'un expert humain avec un doctorat peut réaliser, selon une étude publiée dans Nature. L'IA commence néanmoins à transformer les mathématiques en prouvant de nouveaux résultats à un rythme soutenu, et trouve des failles logicielles plus vite qu'elles ne peuvent être corrigées, ce qui représente un risque réel d'exploitation par des hackers. Le rapport Stanford s'inscrit dans un contexte où la rivalité sino-américaine en matière d'IA s'accélère et où les percées de modèles se succèdent plus vite que les capacités de régulation. Les inscriptions en informatique aux États-Unis chutent massivement, une tendance attribuée en partie à la dévaluation perçue du diplôme face aux outils de codage automatisés. Meta s'apprête quant à elle à dépasser Google en revenus publicitaires en 2026, devenant ainsi la première plateforme mondiale de publicité numérique, signe du repositionnement des géants tech autour de l'IA. L'index Stanford rappelle que derrière les annonces spectaculaires, la technologie évolue plus vite que les institutions, les entreprises et les individus ne peuvent s'y adapter.

UELe rapport Stanford AI Index 2026 met en évidence un fossé de perception entre experts et grand public sur l'impact de l'IA sur l'emploi, un enjeu central pour les politiques européennes de régulation et d'adaptation au marché du travail.

SociétéActu
1 source
Peur et dégoût chez OpenAI
16The Verge AI 

Peur et dégoût chez OpenAI

Le New Yorker a publié cette semaine un long portrait de Sam Altman, PDG d'OpenAI, revenant sur son parcours tumultueux à la tête de l'entreprise la plus influente dans le domaine de l'intelligence artificielle. Le texte rappelle l'épisode le plus marquant de cette saga : en novembre 2023, Altman avait été brusquement licencié par le conseil d'administration d'OpenAI, avant d'être réintégré quelques jours seulement après sous la pression des employés et des investisseurs. Depuis, il a profondément reconfiguré la gouvernance de l'organisation à son avantage. L'enquête soulève une question centrale : Sam Altman est-il la bonne personne pour piloter une technologie aussi puissante et structurante que l'IA générative ? Le profil dressé par le New Yorker interroge la capacité d'un dirigeant au style controversé à assumer la responsabilité d'outils qui transforment en profondeur l'économie, le travail et la société. Pour des millions d'utilisateurs et des milliers d'entreprises qui dépendent de ChatGPT et des API d'OpenAI, la question du leadership n'est pas anodine. OpenAI a connu depuis sa fondation des tensions internes récurrentes entre sa mission originelle à but non lucratif et ses ambitions commerciales croissantes, alimentées par des milliards de dollars d'investissement de Microsoft notamment. La crise de gouvernance de 2023 a mis en lumière ces contradictions structurelles, sans les résoudre. Le débat sur l'identité et les valeurs d'OpenAI reste ouvert, d'autant qu'Altman pousse désormais l'entreprise vers une transformation en société à but lucratif à part entière.

UELa transformation d'OpenAI en société à but lucratif pourrait modifier les conditions d'accès et la tarification de ses API pour les milliers d'entreprises européennes qui en dépendent.

💬 Le vrai sujet du New Yorker, c'est pas Altman, c'est la question qu'on esquive tous depuis 2023 : est-ce qu'on a vraiment envie que l'IA générative soit pilotée par quelqu'un qui a retourné son propre conseil d'administration en 5 jours ? La transition vers le tout-lucratif, je l'attendais, elle était écrite dès les premiers milliards de Microsoft. Mais là, pour les boîtes européennes qui ont tout misé sur les API OpenAI, ça va se traduire en dollars, bientôt.

BusinessOpinion
1 source
Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT
17Les Numériques IA 

Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT

Une enquête journalistique accablante vient d'éclairer sous un jour nouveau la personnalité de Sam Altman, PDG d'OpenAI, l'entreprise derrière ChatGPT. Selon des proches et anciens collaborateurs qui ont brisé le silence, Altman aurait construit sa position dominante dans l'industrie de l'IA en instrumentalisant une rhétorique apocalyptique : convaincre chercheurs, investisseurs et gouvernements que l'intelligence artificielle pourrait anéantir l'humanité, et qu'il était l'homme indispensable pour en prendre les rênes. Certains de ses proches le décrivent comme "un sociopathe prêt à tout" pour maintenir son emprise sur une organisation qu'il a transformée en l'une des plus influentes au monde. Ces révélations interviennent à un moment où OpenAI est valorisée autour de 300 milliards de dollars et négocie en permanence avec des gouvernements sur la régulation de l'IA. Si le portrait dressé par l'enquête est exact, cela soulève des questions fondamentales sur la crédibilité d'Altman comme figure de proue du mouvement dit "d'IA sûre", un positionnement qui lui a permis d'attirer les meilleurs scientifiques du monde et des milliards de dollars de financements, notamment de Microsoft. OpenAI a été fondée en 2015 comme association à but non lucratif dédiée au développement sécurisé de l'IA, avant qu'Altman ne la transforme progressivement en entreprise commerciale de premier plan. En novembre 2023, le conseil d'administration l'avait brièvement licencié, déclenchant une crise interne majeure, avant que la pression des employés et des investisseurs ne le rétablisse dans ses fonctions. Cette enquête relance le débat sur la gouvernance d'OpenAI et la concentration du pouvoir entre les mains d'un seul homme à la tête d'une technologie aux enjeux civilisationnels.

UELes négociations d'OpenAI avec les gouvernements européens sur la régulation de l'IA pourraient être fragilisées si la crédibilité d'Altman comme garant de l'IA responsable est publiquement remise en question.

ÉthiqueActu
1 source
OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus
18VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source
OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée
19The Decoder 

OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée

OpenAI développe un nouveau modèle d'intelligence artificielle doté de capacités avancées en cybersécurité, dont l'accès sera limité à un cercle restreint d'entreprises sélectionnées. L'information, rapportée par Axios, indique que la société de Sam Altman suit ainsi la même approche que son concurrent Anthropic, qui avait déjà mis en place un accès contrôlé pour ses propres outils d'IA orientés sécurité informatique. Cette décision reflète une tension croissante dans le secteur : les modèles suffisamment puissants pour aider les équipes de sécurité défensive peuvent également servir à automatiser des attaques, rédiger des malwares ou identifier des vulnérabilités à grande échelle. En restreignant l'accès à un nombre limité d'acteurs vérifiés, OpenAI cherche à éviter que ces capacités ne tombent entre de mauvaises mains, tout en permettant à des partenaires de confiance, typiquement des entreprises de cybersécurité ou des institutions gouvernementales, d'en exploiter le potentiel légitime. Anthropic avait ouvert la voie avec une politique similaire autour de Claude pour les usages offensifs en sécurité, reconnaissant que certaines capacités nécessitent un encadrement strict plutôt qu'une mise sur le marché ouverte. Ce mouvement parallèle des deux principaux laboratoires d'IA américains suggère l'émergence d'une norme informelle de l'industrie : les outils d'IA à double usage dans la cybersécurité ne seront pas accessibles via les APIs publiques classiques, mais distribués selon un modèle d'accréditation. La question de qui décide des critères d'accès, et selon quelle transparence, reste entière.

UELes entreprises européennes de cybersécurité pourraient voir leur accès à ces outils conditionné par des critères d'accréditation définis unilatéralement par des laboratoires américains, sans cadre réglementaire européen pour encadrer cette distribution.

SécuritéOpinion
1 source
Sam Altman fragilisé par une enquête explosive du New Yorker au pire moment pour OpenAI
20Siècle Digital 

Sam Altman fragilisé par une enquête explosive du New Yorker au pire moment pour OpenAI

Ronan Farrow et Andrew Marantz ont publié dans le New Yorker une enquête approfondie sur Sam Altman, présentée comme la dissection la plus documentée jamais réalisée sur le PDG d'OpenAI. Le texte paraît à un moment particulièrement délicat : OpenAI affiche une valorisation de 852 milliards de dollars, mais sa propre directrice financière a jugé une introduction en Bourse compromise pour l'année en cours, tandis que la croissance de l'entreprise montre des signes de ralentissement. Le timing est stratégiquement désastreux pour OpenAI. Une enquête de cette envergure, signée par Ronan Farrow, journaliste connu pour ses révélations ayant contribué au mouvement #MeToo, amplifie les doutes des investisseurs institutionnels déjà préoccupés par la trajectoire financière de l'entreprise. Pour une société qui cherche à convaincre les marchés de sa solidité avant une éventuelle cotation, les révélations sur son dirigeant alimentent l'incertitude au pire moment, fragilisant la confiance indispensable à une opération de cette échelle. OpenAI traverse depuis plusieurs mois une période de turbulences : départs de cadres clés, tensions internes sur la direction stratégique, et pression croissante des concurrents comme Google DeepMind, Anthropic ou les acteurs chinois tels que DeepSeek. Sam Altman, déjà brièvement évincé fin 2023 avant d'être rétabli dans ses fonctions, voit son autorité de nouveau mise en question. L'enquête du New Yorker pourrait accélérer les interrogations sur la gouvernance d'OpenAI et sur la capacité d'Altman à piloter une entreprise aux ambitions aussi colossales.

BusinessOpinion
1 source
Musk propose de reverser tous les dommages à l'association Open AI pour vaincre Altman en justice
21Ars Technica AI 

Musk propose de reverser tous les dommages à l'association Open AI pour vaincre Altman en justice

Elon Musk a modifié mardi sa plainte contre OpenAI et son PDG Sam Altman, qui les accuse d'avoir trahi la mission originelle de l'organisation. Dans ce nouvel amendement, il précise que les éventuels dommages et intérêts récupérés ne lui reviendraient pas personnellement, mais seraient reversés intégralement à la branche caritative à but non lucratif d'OpenAI. Son avocat, Marc Toberoff, a confirmé l'information au Wall Street Journal : Musk « ne cherche pas un seul dollar pour lui-même ». Cette clarification vise à neutraliser l'un des principaux arguments défensifs d'OpenAI, qui présentait la procédure comme une manœuvre d'intimidation destinée à nuire à une entreprise concurrente. En retirant toute dimension financière personnelle du recours, Musk tente de recentrer le débat sur le fond : le respect de la mission sociale d'OpenAI, initialement constituée comme une organisation d'intérêt public, et non comme une entreprise commerciale orientée vers le profit. Musk est l'un des cofondateurs d'OpenAI, qu'il a quitté en 2018, avant de devenir l'un de ses rivaux les plus directs avec xAI et son modèle Grok. Le contentieux s'inscrit dans un contexte de transformation profonde d'OpenAI, qui cherche à convertir sa structure en société à but lucratif classique, un virage que plusieurs observateurs et anciens membres contestent. La bataille juridique, doublée d'une guerre commerciale dans l'IA générative, pourrait contraindre OpenAI à justifier publiquement l'évolution de sa gouvernance devant les tribunaux.

UELa bataille juridique pourrait forcer OpenAI à justifier sa gouvernance publiquement, ce qui aurait des répercussions sur sa conformité avec l'AI Act européen et ses obligations envers ses partenaires en Europe.

BusinessActu
1 source
Manipulateur, sociopathe : qui est vraiment le patron de ChatGPT ?
22Le Big Data 

Manipulateur, sociopathe : qui est vraiment le patron de ChatGPT ?

Une enquête publiée par le New Yorker le 6 avril 2026, signée par les journalistes Ronan Farrow et Andrew Marantz, dresse un portrait sévère de Sam Altman, PDG d'OpenAI. Basée sur des mémos internes inédits et plus de 200 pages de documents, l'enquête compile des témoignages d'anciens collaborateurs qui décrivent un dirigeant au profil atypique : non pas un ingénieur visionnaire, mais un stratège de la persuasion. Altman dirige une entreprise valorisée près de 1 000 milliards de dollars, et son influence sur le secteur de l'intelligence artificielle est considérable. Pourtant, plusieurs sources lui reprochent un rapport très flexible à la vérité : renégociation d'accords après coup, déni d'engagements pourtant documentés, reformulation des faits selon les circonstances. Un ancien collaborateur décrit un effet "Jedi", une capacité à faire croire à chaque interlocuteur que la vision d'Altman est en réalité la sienne. L'impact de ces révélations dépasse le simple portrait de dirigeant. OpenAI occupe une position centrale dans le développement de l'IA mondiale, et la question de sa gouvernance touche directement à la confiance que lui accordent partenaires, régulateurs et utilisateurs. Le cas de Dario Amodei, ancien cadre d'OpenAI devenu PDG d'Anthropic, est particulièrement éloquent : lors des négociations avec Microsoft en 2019, des garanties strictes en matière de sécurité auraient été validées, avant qu'une clause clé ne soit discrètement modifiée. Altman aurait ensuite nié l'existence de ce changement malgré des preuves écrites. Microsoft, principal investisseur d'OpenAI, aurait également subi des revirements similaires : alors qu'OpenAI réaffirmait publiquement l'exclusivité de Azure comme fournisseur cloud, l'entreprise annonçait en parallèle un partenariat avec Amazon sur sa plateforme Frontier dédiée aux agents IA. Ce double discours érode la confiance des partenaires et brouille la lisibilité stratégique d'une entreprise dont chaque mouvement est scruté à l'échelle mondiale. Ces tensions s'inscrivent dans un contexte plus large de questionnement sur la gouvernance d'OpenAI. En novembre 2023, le conseil d'administration avait temporairement évincé Altman avant de le réintégrer sous pression des employés et des investisseurs, révélant déjà des fractures profondes. La conversion d'OpenAI d'organisation à but non lucratif en entreprise commerciale alimente les doutes sur la sincérité de ses engagements éthiques. Le terme "sociopathe" revient dans plusieurs témoignages, ce qui illustre la violence des jugements portés en interne. Altman, lui, continue de se présenter comme un acteur responsable de la transition vers l'IA générale. La question qui traverse toute l'enquête est finalement celle-ci : peut-on bâtir une technologie civilisationnelle en s'appuyant sur un leadership dont la méthode principale est la manipulation, même brillante ?

UELes révélations sur la gouvernance d'OpenAI pourraient renforcer la méfiance des régulateurs européens et compliquer les négociations de conformité dans le cadre de l'AI Act.

BusinessActu
1 source
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI
23Next INpact 

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

OpenAI traverse une période de turbulences organisationnelles majeures. Fidji Simo, directrice générale des applications et numéro deux de l'entreprise, a annoncé fin mars un congé maladie forcé en raison du syndrome de tachycardie orthostatique posturale, diagnostiqué en 2019. Embauchée en mai 2025, l'ancienne PDG d'Instacart et ex-vice-présidente de Facebook avait en moins d'un an profondément recentré la stratégie d'OpenAI vers la génération de code et les services aux entreprises, au détriment de projets comme Sora ou le "mode adulte" de ChatGPT. Son départ temporaire entraîne une redistribution immédiate des responsabilités : le président Greg Brockman reprend sous sa direction le projet de "superapp" qui devait fusionner ChatGPT, Codex et le navigateur Atlas, tandis que Brad Lightcap, directeur des opérations, hérite des "projets spéciaux". Dans la foulée, Kate Rouch, directrice marketing depuis dix-huit mois, a également annoncé son retrait temporaire pour soigner un cancer. Ces départs simultanés tombent à un moment particulièrement délicat pour OpenAI, qui vient de boucler un tour de table colossal de 122 milliards de dollars et envisage une introduction en bourse à Wall Street en 2026. Selon The Information, des frictions existent entre la directrice financière Sarah Friar et Sam Altman sur le calendrier de l'IPO. Friar s'inquiète des procédures encore incomplètes, des risques liés aux engagements massifs en infrastructures serveurs, et d'une croissance des revenus qui tournerait en deçà des attentes. La marge brute 2025 aurait elle aussi déçu les investisseurs, rongée par des achats en urgence de capacités de calcul pour absorber une demande explosive. Détail révélateur de la complexité interne : Friar ne relevait pas de Sam Altman, comme le veut l'usage, mais directement de Fidji Simo, dont elle se retrouve désormais sans hiérarchie directe. Ce remue-ménage intervient dans un contexte où la gouvernance d'OpenAI est scrutée de près, en interne comme à l'extérieur. Un long portrait de Sam Altman publié ce week-end par The New Yorker, s'appuyant sur des témoignages et mémos internes, décrit un dirigeant habile et obsédé par la victoire, mais dont le style de management suscite des tensions répétées au sommet de l'organisation. OpenAI a connu en deux ans plusieurs crises de gouvernance majeures, dont le licenciement puis la réintégration d'Altman en novembre 2023. L'entreprise doit désormais prouver aux marchés et à ses investisseurs, dont SoftBank, Amazon et NVIDIA, qu'elle est capable de stabiliser son organisation avant de franchir le pas d'une cotation publique. La question n'est plus seulement technologique : c'est la maturité institutionnelle d'OpenAI qui est en jeu.

BusinessOpinion
1 source
C’est confirmé : OpenAI met toute sa puissance sur une IA qui va changer le monde
24Le Big Data 

C’est confirmé : OpenAI met toute sa puissance sur une IA qui va changer le monde

OpenAI a décidé de mettre en pause, voire d'abandonner définitivement, le développement de Sora, son générateur de vidéos par IA, pour réorienter l'intégralité de ses ressources de calcul vers une nouvelle génération de modèles d'intelligence artificielle. L'annonce a été confirmée officiellement dans la documentation interne d'OpenAI début avril 2026. Sam Altman, PDG de l'entreprise, a déclaré publiquement : "Il se passe quelque chose de très important. Je ne m'attendais pas, il y a trois ou six mois, à être là où nous en sommes aujourd'hui." Ce pivot stratégique rappelle directement celui opéré lors du tournant vers GPT-3, quand OpenAI avait déjà sacrifié plusieurs projets prometteurs en robotique pour concentrer ses moyens sur un pari jugé plus structurant. Cette fois, l'enjeu est encore plus ambitieux : il s'agit de développer des agents autonomes capables d'exécuter des tâches complexes, de prendre des décisions et de s'intégrer dans des flux de travail à grande échelle. La décision révèle une réalité fondamentale du secteur : les ressources de calcul sont un goulot d'étranglement absolu. Poursuivre Sora en parallèle aurait mobilisé une part trop importante de cette infrastructure au détriment des projets jugés prioritaires. Pour les entreprises, les conséquences pourraient être considérables : Altman évoque l'émergence d'un écosystème entier de "chercheurs et entreprises spécialisées dans l'automatisation", construits autour de ces nouveaux agents. Ces systèmes ne se contenteraient plus d'assister les utilisateurs, mais automatiseraient des processus entiers, de la recherche à l'exécution opérationnelle. La frustration exprimée par certains développeurs sur les forums communautaires d'OpenAI illustre bien que Sora suscitait des attentes réelles, mais la logique de concentration l'a emporté sur celle de la diversification. Ce virage s'inscrit dans une dynamique plus large de course aux ressources qui structure désormais toute l'industrie de l'IA. Comme le résume Altman lui-même : "Tout repose sur le calcul." Les modèles les plus performants exigent des infrastructures massives, des centres de données spécialisés et des investissements colossaux, ce qui crée une guerre des ressources entre les grands acteurs. OpenAI, face à Microsoft, Google DeepMind et Anthropic, fait le choix de concentrer ses efforts plutôt que de les disperser, quitte à abandonner des projets pourtant aboutis. Les avancées internes des derniers mois ont visiblement été si rapides que même l'équipe dirigeante ne les anticipait pas, suggérant un saut qualitatif potentiellement significatif. Si les prochains modèles tiennent leurs promesses, on pourrait assister à un changement de paradigme dans la manière dont individus et organisations interagissent avec l'IA, non plus comme un outil d'assistance, mais comme un acteur autonome dans la chaîne de décision.

UELa réorientation vers les agents autonomes va intensifier la pression sur les entreprises européennes pour adapter leurs workflows et relance le débat sur la souveraineté numérique face à la concentration des ressources de calcul chez les géants américains.

BusinessOpinion
1 source
Le feuilleton sans fin d'OpenAI
25The Information AI 

Le feuilleton sans fin d'OpenAI

La direction d'OpenAI traverse une période de turbulences internes qui compromet sérieusement ses ambitions d'introduction en bourse. Selon un article publié dimanche par The Information, la directrice financière Sarah Friar nourrit des doutes sur la capacité d'OpenAI à s'introduire en bourse et à honorer ses engagements en matière d'infrastructure de serveurs pour l'IA. Le lendemain, The New Yorker a publié un long portrait du PDG Sam Altman qui ravive des interrogations persistantes sur sa fiabilité et son style de management. Ces deux publications surviennent à un moment critique, alors qu'OpenAI cherche à se transformer en entreprise à but lucratif et à lever des capitaux auprès d'investisseurs institutionnels. La coexistence de ces deux figures au sommet de l'entreprise pose un problème concret pour une éventuelle introduction en bourse : il paraît difficile pour Friar et Altman de se présenter ensemble devant des investisseurs avec crédibilité. Selon The Information, Altman aurait déjà écarté Friar de certaines réunions stratégiques importantes et l'aurait rétrogradée en lui faisant rapporter à l'un de ses subordonnés, une mise à l'écart qui fragilise sa position. Parallèlement, les révélations du New Yorker sur le comportement d'Altman pourraient nuire à la confiance des investisseurs envers l'ensemble de la gouvernance de l'entreprise. OpenAI est depuis ses origines une organisation marquée par des crises de gouvernance, dont le limogeage puis la réintégration spectaculaire d'Altman en novembre 2023. La transformation en cours vers un modèle commercial classique, accompagnée d'une valorisation qui dépasse les 300 milliards de dollars selon les dernières levées de fonds, amplifie les enjeux de chaque friction au sommet. Une IPO nécessite une équipe dirigeante stable et crédible, deux qualités que les événements récents remettent en question. L'issue la plus probable reste un remaniement de l'équipe de direction avant toute cotation en bourse, avec Friar comme candidate la plus exposée au départ.

UELes tensions de gouvernance chez OpenAI pourraient retarder son introduction en bourse et fragiliser ses engagements d'infrastructure, affectant indirectement les partenariats et déploiements européens planifiés.

BusinessOpinion
1 source
Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman
26Ars Technica AI 

Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman

Le même jour où OpenAI publiait ses recommandations politiques pour garantir que l'intelligence artificielle bénéficie à l'humanité en cas d'avènement d'une superintelligence, le magazine The New Yorker lançait une vaste enquête sur la fiabilité de Sam Altman, PDG d'OpenAI, quant à la tenue des grandes promesses de l'entreprise. Cette coïncidence éditoriale crée un contraste saisissant : d'un côté, un document institutionnel affirmant qu'OpenAI s'engage à "garder les humains en premier" alors que l'IA commencera à "surpasser les humains les plus intelligents, même assistés par l'IA" ; de l'autre, une investigation journalistique alimentée par des témoignages d'anciens collaborateurs qui doutent que ce discours soit sincère. L'enquête du New Yorker met en lumière une fracture profonde au sein même de l'organisation : des initiés, anciens employés ou proches du dossier, estiment que le problème central n'est pas la technologie mais son dirigeant. Sam Altman est décrit comme un leader dont les décisions et le style de management sèment la méfiance en interne. Pendant ce temps, le document de politique d'OpenAI reconnaît explicitement des risques extrêmes, notamment la possibilité que des systèmes d'IA échappent au contrôle humain ou que des gouvernements s'en servent pour saper la démocratie. L'entreprise promet de rester "lucide" et transparente sur ces dangers, mais la crédibilité de cet engagement est précisément ce que l'enquête remet en question. Cette tension intervient dans un contexte où OpenAI, valorisée à plusieurs dizaines de milliards de dollars et en pleine transformation vers une structure à but lucratif, est scrutée de toutes parts. La course à la superintelligence oppose des acteurs comme Google DeepMind, Anthropic et Meta, tous engagés dans une compétition technologique sans précédent. La question de la gouvernance, et de la confiance accordée aux dirigeants qui pilotent ces systèmes, est désormais au coeur du débat public. Si les promesses d'OpenAI sur la sécurité et la transparence sont prises au sérieux par les régulateurs et le grand public, leur crédibilité repose largement sur la personne qui les incarne.

UELes régulateurs européens scrutent la gouvernance des grands labs d'IA dans le cadre de l'AI Act ; une crise de confiance envers la direction d'OpenAI pourrait renforcer les exigences de transparence et d'audit imposées aux fournisseurs de modèles à haut risque.

SécuritéOpinion
1 source
TensorWave peut-il dépasser l'avantage concurrentiel de Nvidia ?
27The Information AI 

TensorWave peut-il dépasser l'avantage concurrentiel de Nvidia ?

Nick Tatarchuk, fondateur de la startup TensorWave, a organisé mercredi à San Francisco un événement intitulé Beyond Summit, anciennement appelé Beyond CUDA. Ce changement de nom n'est pas anodin : l'édition précédente, tenue à San Jose en 2025 lors de la conférence GTC de Nvidia, avait attiré des centaines de participants désireux de discuter des alternatives au logiciel de Nvidia. Cette année, des sponsors et participants potentiels ont exprimé des réticences à s'associer à un événement aussi explicitement positionné contre le géant des puces. Tatarchuk lui-même reconnaît cette pression, d'autant que sa salle habituelle à San Jose avait été réservée pour plusieurs années... par Nvidia. L'événement réunit des startups qui développent des compilateurs, des noyaux et des couches d'optimisation pour concurrencer l'écosystème logiciel de Nvidia, dont plusieurs ont figuré dans les classements Top 50 Startups de 2024 et 2025. L'enjeu central est CUDA, la plateforme logicielle de Nvidia considérée comme son véritable fossé concurrentiel : elle simplifie radicalement l'utilisation du matériel Nvidia pour l'entraînement et l'inférence de modèles d'IA. Mais ce monopole commence à se fissurer. OpenAI et Meta ont récemment annoncé des accords importants avec AMD, rival direct de Nvidia, pour utiliser ses puces dans leurs infrastructures d'IA. Tatarchuk affirme que des laboratoires d'IA commencent désormais à réaliser des entraînements à grande échelle sur du matériel AMD, une pratique qui était à peine évoquée publiquement il y a encore peu. Pour la première fois depuis des années, des clients seraient prêts à envisager sérieusement des alternatives à CUDA, estime-t-il : "Il y a tellement d'entreprises sophistiquées qui n'ont pas besoin de CUDA." Ce mouvement s'inscrit dans un contexte de transformation profonde de l'industrie du calcul pour l'IA. La domination de Nvidia, dont les GPU représentent l'essentiel du marché de l'entraînement des grands modèles, est contestée à la fois par des fabricants de puces alternatifs et par un écosystème logiciel naissant. En parallèle, une autre initiative illustre l'effervescence du secteur : à l'université Stanford, un cours universitaire de premier cycle sur l'infrastructure IA est devenu un événement majeur, surnommé le "Compute Coachella". Le cours, complet, réunit cette semaine Jensen Huang (Nvidia), Lisa Su (AMD), Sam Altman (OpenAI), Satya Nadella (Microsoft) et Andrej Karpathy comme intervenants. Il est enseigné par Anjney Midha, ancien associé d'Andreessen Horowitz et investisseur précoce d'Anthropic, et Michael Abbott, ancien responsable ingénierie chez Apple, tous deux impliqués dans AMP, une initiative visant à faciliter l'accès aux ressources de calcul pour les entreprises.

UEL'émergence d'alternatives viables à CUDA pourrait à terme réduire la dépendance des entreprises et laboratoires européens envers Nvidia pour leurs infrastructures d'entraînement IA.

InfrastructureActu
1 source
L'exode des experts en sécurité d'OpenAI a enfin une explication : le ressenti de Sam Altman
28The Decoder 

L'exode des experts en sécurité d'OpenAI a enfin une explication : le ressenti de Sam Altman

Dans un long portrait publié par le New Yorker et fondé sur plus de cent entretiens, Sam Altman a fourni sa version des départs répétés de chercheurs en sécurité chez OpenAI. Sa réponse, lapidaire : "My vibes don't really fit" -- ses ondes ne correspondent tout simplement pas. Le PDG d'OpenAI reconnaît aussi que ses engagements passés, que certains qualifieraient de promesses non tenues, font simplement partie du métier de dirigeant dans un secteur aussi mouvant. Cette explication désinvolte intervient après une série de démissions retentissantes au sein de l'équipe dédiée à la sécurité d'OpenAI, dont des figures comme Ilya Sutskever, Paul Christiano ou encore des membres de l'équipe Superalignment dissoute en 2024. Que le dirigeant de l'entreprise supposément la plus avancée sur l'IA générale réduise ces départs à une question de compatibilité personnelle inquiète une partie de l'industrie : cela suggère que les désaccords de fond sur la gestion des risques sont traités comme des problèmes de culture d'entreprise plutôt que comme des alertes techniques sérieuses. OpenAI traverse depuis plusieurs années une tension structurelle entre sa mission d'origine -- développer une IA sûre au bénéfice de l'humanité -- et ses impératifs commerciaux croissants, accélérés par les investissements massifs de Microsoft et la concurrence de Google DeepMind et Anthropic. Le profil du New Yorker, qui s'annonce comme l'un des portraits les plus fouillés d'Altman à ce jour, risque de relancer le débat sur la gouvernance réelle d'une entreprise valorisée à plusieurs centaines de milliards de dollars.

UELa gestion désinvolte des alertes de sécurité chez OpenAI renforce les arguments européens en faveur d'une surveillance renforcée des systèmes d'IA à haut risque sous l'AI Act.

SécuritéOpinion
1 source
OpenAI CFO Questions 2026 IPO Readiness
29The Information AI 

OpenAI CFO Questions 2026 IPO Readiness

Sam Altman, PDG d'OpenAI, et Sarah Friar, directrice financière de l'entreprise, ne s'accordent pas sur le calendrier d'une éventuelle introduction en bourse, selon des informations rapportées par The Information. Altman souhaiterait une entrée en bourse dès le quatrième trimestre 2026, tandis que Friar aurait exprimé en privé des réserves sur la capacité d'OpenAI à être prête dans ce délai. Ce désaccord au sommet est révélateur des tensions internes que traverse la startup la plus valorisée du secteur de l'IA. Une introduction en bourse prématurée exposerait OpenAI à un niveau de transparence financière et réglementaire auquel l'entreprise n'est peut-être pas encore préparée, avec des exigences de reporting trimestriel et une pression accrue des marchés sur la rentabilité à court terme, un défi de taille pour une société qui brûle des milliards en infrastructure et en recherche. OpenAI a récemment levé 40 milliards de dollars en mars 2026 lors d'un tour de table mené par SoftBank, portant sa valorisation à 300 milliards de dollars. Cette levée massive, combinée à la restructuration de l'entreprise en société à but lucratif, semblait préparer le terrain pour une éventuelle entrée en bourse. Mais les frictions entre Altman et Friar suggèrent que la transition vers les marchés publics est plus complexe que prévu, notamment dans un contexte de concurrence intense avec Google, Anthropic et Meta sur le marché de l'IA générative.

BusinessActu
1 source
OpenAI rachète TBPN
30OpenAI Blog 

OpenAI rachète TBPN

OpenAI a annoncé l'acquisition de TBPN, un réseau médiatique indépendant axé sur les conversations autour de l'intelligence artificielle. L'opération vise à accélérer le dialogue mondial sur l'IA, en rassemblant constructeurs, entreprises et acteurs de la communauté tech sous une même plateforme éditoriale. Les termes financiers de la transaction n'ont pas été divulgués. Ce rachat marque une nouvelle étape dans la stratégie de communication d'OpenAI, qui cherche à contrôler davantage les récits entourant l'IA et à renforcer sa présence dans l'écosystème des médias spécialisés. En intégrant un média indépendant, la société de Sam Altman se dote d'un outil pour toucher directement les développeurs, les décideurs et le grand public tech, sans passer uniquement par la presse traditionnelle. Cette acquisition s'inscrit dans un contexte de concurrence intense entre les grands acteurs de l'IA, où la maîtrise de l'image publique et de l'influence devient un levier stratégique au même titre que la recherche. OpenAI, sous pression croissante de la part de régulateurs et d'une opinion publique partagée sur les risques de l'IA, mise sur une présence médiatique renforcée pour façonner les débats. La question de l'indépendance éditoriale de TBPN après ce rachat reste ouverte.

UEL'acquisition d'un média spécialisé IA par OpenAI renforce l'influence américaine sur les récits entourant l'IA, ce qui peut affecter indirectement le débat public européen sur la régulation et la perception des risques liés à l'IA.

Levée record de 122 milliards pour OpenAI : l'introduction en Bourse est lancée.
31ZDNET FR 

Levée record de 122 milliards pour OpenAI : l'introduction en Bourse est lancée.

OpenAI a finalisé la plus grande levée de fonds de l'histoire de la tech privée, bouclant un tour de table de 122 milliards de dollars qui porte sa valorisation à 852 milliards. La transaction, menée par SoftBank à hauteur de 40 milliards, propulse la société fondée par Sam Altman dans une catégorie à part, loin devant tous les autres acteurs de l'IA générative. Ce financement exceptionnel s'accompagne d'une annonce claire : une introduction en Bourse est désormais en préparation. Avec près de 900 milliards de valorisation, OpenAI rejoint le club très restreint des entreprises les plus valorisées au monde avant même d'être cotée. L'enjeu est de taille pour l'ensemble de l'industrie : cette levée légitime les multiples stratosphériques du secteur IA et va probablement accélérer la consolidation du marché, où les acteurs sans accès à des capitaux massifs risquent d'être distancés. Pour les entreprises clientes, le signal envoyé est celui d'une pérennité garantie — un argument commercial direct face aux inquiétudes sur la viabilité financière d'OpenAI. Cette opération intervient alors qu'OpenAI traverse une transformation profonde de son modèle. La société accélère son pivot vers une « super-application » agentique — capable d'agir de façon autonome au nom des utilisateurs — et rationalise son catalogue de produits pour séduire les grands comptes. Depuis deux ans, la firme brûle des milliards en coûts d'infrastructure tout en cherchant la rentabilité ; l'IPO à venir imposera une discipline financière nouvelle, sous le regard des marchés publics et de ses nouveaux actionnaires institutionnels.

UELes acteurs européens de l'IA, moins capitalisés, risquent d'être distancés par une consolidation accélérée du marché mondial que seuls les géants disposant de financements massifs pourront suivre.

💬 852 milliards de valorisation pour une boîte qui perd encore de l'argent, bon, sur le papier ça donne le vertige. Ce que je retiens surtout, c'est que l'IPO va forcer une vraie discipline financière, là où tout le monde faisait semblant de ne pas regarder les chiffres. Reste à voir si les marchés publics seront aussi indulgents que SoftBank.

BusinessOpinion
1 source
OpenAI scénarise son IPO et conclut son tour sur un cliffhanger à 852 milliards de dollars
32FrenchWeb 

OpenAI scénarise son IPO et conclut son tour sur un cliffhanger à 852 milliards de dollars

OpenAI vient de boucler son dernier tour de financement à une valorisation de 852 milliards de dollars, un record absolu pour une entreprise privée dans le secteur technologique. Ce tour, piloté par Sam Altman avec une précision narrative remarquable, intervient quelques mois avant une introduction en bourse attendue pour la fin de l'année 2026. Le montant exact levé n'a pas été divulgué, mais la valorisation place OpenAI au rang des entreprises les plus précieuses au monde, devant des géants établis depuis des décennies. Cette valorisation stratosphérique n'est pas anodine : elle conditionne directement les termes de l'IPO à venir et verrouille les attentes des investisseurs institutionnels. À 852 milliards, OpenAI se positionne pour viser le trillion de dollars en bourse, un seuil symbolique que seuls Apple, Nvidia, Microsoft et quelques autres ont franchi. Pour les acteurs de l'IA — startups, investisseurs, concurrents — ce chiffre envoie un signal fort sur la prime accordée au leadership dans ce secteur, et renforce la pression sur Anthropic, Google DeepMind et Meta pour justifier leurs propres valorisations. Ce tour de table s'inscrit dans une transformation structurelle d'OpenAI, en cours depuis 2024 : la société a entamé sa conversion de statut à but non lucratif vers une structure commerciale classique, condition sine qua non d'une cotation en bourse. Sam Altman orchestre chaque étape comme un récit feuilletonnant — tours de table, restructurations, annonces produits — pour maintenir l'élan narratif et les valorisations. L'IPO, si elle aboutit, serait l'une des plus importantes de la décennie dans la tech.

UELa valorisation record d'OpenAI à 852 milliards de dollars accentue la pression sur les acteurs européens de l'IA, notamment Mistral, pour justifier leurs propres valorisations auprès des investisseurs institutionnels européens.

💬 852 milliards avant l'IPO, c'est une mise en scène autant qu'une réalité financière. Altman sait que le chiffre qui précède la bourse devient le plancher psychologique des attentes, et viser le trillion dès la cotation, c'est courageux ou inconscient, peut-être les deux. Ce qui me frappe surtout, c'est la pression que ça met sur Mistral et les autres européens : expliquer ta valorisation quand OpenAI écrase tout le monde à 852 Mds, bonne chance.

BusinessOpinion
1 source
OpenAI lève 3 milliards auprès d'investisseurs particuliers dans une levée record de 122 milliards
33TechCrunch AI 

OpenAI lève 3 milliards auprès d'investisseurs particuliers dans une levée record de 122 milliards

OpenAI a bouclé un tour de financement record de 122 milliards de dollars, dont 3 milliards levés directement auprès d'investisseurs particuliers — une démarche inhabituelle pour une entreprise non cotée. Le tour est mené par Amazon, Nvidia et SoftBank, et porte la valorisation de la société à 852 milliards de dollars, la plaçant parmi les entreprises privées les plus valorisées de l'histoire. L'ouverture aux investisseurs retail signale qu'OpenAI prépare activement son introduction en bourse. En associant le grand public à ce tour pré-IPO, la société élargit sa base d'actionnaires et génère une dynamique de marché favorable avant une cotation. Pour les investisseurs institutionnels comme SoftBank — déjà engagé à hauteur de 500 millions de dollars dans le projet Stargate — c'est une opportunité de consolider leur position avant que le titre ne soit accessible à tous. Cette levée intervient dans un contexte de course effrénée aux capitaux dans l'IA générative. OpenAI fait face à la montée en puissance de concurrents comme Anthropic, Google DeepMind et des acteurs chinois tels que DeepSeek. Avec une valorisation frôlant les 1 000 milliards de dollars, l'entreprise fondée par Sam Altman s'approche d'un statut de « trillion-dollar company » avant même son entrée en bourse, une IPO qui pourrait redéfinir les standards du secteur technologique.

UELa valorisation record d'OpenAI à 852 milliards de dollars et sa future IPO renforceront la dépendance des entreprises européennes aux infrastructures IA américaines, aggravant les enjeux de souveraineté numérique de l'UE.

💬 852 milliards avant même l'IPO, c'est du jamais vu et c'est pas un accident. Ouvrir le tour aux particuliers, c'est pas de la générosité envers les petits porteurs, c'est la mécanique classique pour chauffer la base actionnaire et arriver en bourse avec un marché déjà acquis. Ça va faire une IPO spectaculaire sur le papier, bon, reste à voir ce que ça donne quand les vrais chiffres de marge seront publics.

BusinessActu
1 source
OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards
34The Information AI 

OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards

OpenAI a annoncé mardi avoir bouclé un tour de financement de 122 milliards de dollars, pour une valorisation pré-investissement de 830 milliards de dollars — soit environ 22 milliards au-dessus de l'objectif initial de 100 milliards révélé par The Information. SoftBank figure parmi les investisseurs principaux de cette levée historique, qui propulse OpenAI au rang des entreprises privées les mieux valorisées au monde. Cette opération confirme que les marchés continuent de parier massivement sur l'IA générative malgré des questions persistantes sur la rentabilité à court terme. Pour OpenAI, ces capitaux doivent financer l'expansion de ses infrastructures de calcul, le développement de nouveaux modèles et l'accélération de son déploiement commercial à l'échelle mondiale — notamment face à une concurrence de plus en plus dense de Google, Meta et des acteurs chinois comme DeepSeek. OpenAI traverse une période de transformation profonde : l'entreprise est en train de passer d'une structure à but non lucratif à une société à but lucratif, une transition complexe sur le plan juridique et éthique. Ce tour de table intervient alors que Sam Altman cherche à sécuriser des ressources suffisantes pour maintenir son avance technologique et développer des produits grand public au-delà de ChatGPT, dans un secteur où les coûts d'entraînement des modèles continuent d'exploser.

UECette levée record renforce la domination américaine dans l'IA générative et accentue la pression sur les acteurs européens, relançant le débat sur la souveraineté numérique et la capacité de l'UE à rivaliser dans la course aux infrastructures IA.

💬 830 milliards pour une boîte qui perd encore de l'argent, ça dit tout sur l'état du marché. SoftBank qui remets au pot, c'est presque rassurant, ils ont l'habitude des paris fous. Ce qui m'intéresse là-dedans, c'est pas la valorisation, c'est la question qui reste sans réponse : est-ce qu'on est dans une bulle ou dans la construction réelle d'une infrastructure mondiale ? On aura la réponse dans 3 ans.

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial
35Le Big Data 

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial

En octobre 2025, Sam Altman a conclu des accords préliminaires avec les deux géants mondiaux de la mémoire vive, Samsung Electronics et SK Hynix, pour réserver 900 000 wafers de DRAM par mois — soit environ 40 % de la production mondiale totale. Ces lettres d'intention, signées sans commande ferme ni paiement immédiat, ont suffi à déclencher une onde de choc sur le marché. Les deux fabricants coréens ignoraient qu'ils s'engageaient simultanément pour les mêmes volumes. Résultat : un kit DDR5-6000 de 32 Go, qui coûtait 139 € avant ces annonces, s'affiche aujourd'hui à plus de 340 € chez des revendeurs comme LDLC. En mars 2026, la situation s'est encore aggravée lorsqu'OpenAI a rompu son engagement de 71 milliards de dollars avec SK Hynix, faisant chuter les actions de Micron et semant la panique chez les distributeurs qui avaient déjà anticipé la pénurie en masquant leurs tarifs publics. L'impact est immédiat et concret pour des millions d'utilisateurs. Les fabricants comme Micron ont fermé leur division grand public — la marque Crucial a pratiquement disparu des rayons — pour rediriger leurs lignes de production vers la mémoire HBM destinée aux centres de données IA. TrendForce estime que les datacenters capteront 70 % de la production mondiale de puces en 2026, ne laissant que des miettes au marché des PC. La part de la mémoire dans le coût d'un ordinateur HP est passée de 15 % à 35 %. Les consoles portables comme le Steam Deck de Valve sont en rupture de stock dans le monde entier, faute de composants disponibles. Gartner prévoit une chute des ventes de PC d'entrée de gamme et de configurations accessibles aux petits budgets, pénalisant directement les étudiants, les travailleurs indépendants et les pays émergents. Cette crise illustre un phénomène plus large : la mainmise croissante des géants de l'IA sur les chaînes d'approvisionnement en semi-conducteurs, au détriment du marché grand public. OpenAI, forte de la confiance des marchés et de ses investisseurs, a pu bloquer une fraction massive de la production mondiale sans débourser un centime, simplement par le poids de sa signature. Ce type de spéculation sur lettres d'intention crée des goulots d'étranglement artificiels qui faussent les prix bien avant que la moindre puce ne sorte d'usine. La question qui se pose désormais est celle de la régulation : faut-il encadrer les achats anticipés de composants stratégiques pour éviter que les ambitions d'un seul acteur ne paralysent l'ensemble du marché informatique mondial ? Les prochains mois seront déterminants, notamment si d'autres acteurs comme Microsoft, Google ou Meta suivent la même stratégie d'accaparement.

UELes prix de la RAM ont doublé en France (139 € à 340 € chez LDLC), pénalisant directement étudiants et indépendants, et la question d'une régulation européenne des réservations massives de composants stratégiques par les géants de l'IA devient urgente.

💬 Réserver 40% de la RAM mondiale avec une lettre d'intention sans débourser un centime, c'est du culot à l'état pur. Résultat : 139 € le kit DDR5 en octobre, 340 € aujourd'hui, et Crucial qui a pratiquement disparu des rayons. Si on n'encadre pas ce genre de spéculation sur des composants stratégiques, d'autres acteurs vont tenter le même coup.

InfrastructureOpinion
1 source
L'IA entre dans une nouvelle phase d'accélération
36OpenAI Blog 

L'IA entre dans une nouvelle phase d'accélération

OpenAI a levé 122 milliards de dollars lors d'un nouveau tour de financement destiné à accélérer le développement de l'intelligence artificielle de frontier à l'échelle mondiale. Cette opération, l'une des plus importantes jamais réalisées dans le secteur technologique, doit permettre à la société de Sam Altman d'investir massivement dans les infrastructures de calcul de nouvelle génération et de répondre à la demande croissante pour ses produits phares — ChatGPT, Codex et ses offres enterprise. L'ampleur de ce financement traduit une course aux ressources computationnelles sans précédent : entraîner et déployer des modèles de frontier exige des milliers de GPU spécialisés et des datacenters à la consommation électrique colossale. Pour les entreprises clientes et les millions d'utilisateurs de ChatGPT, cela signifie une capacité accrue, une disponibilité améliorée et vraisemblablement de nouveaux modèles plus puissants dans les prochains mois. Cette levée s'inscrit dans une dynamique où les grands laboratoires d'IA — OpenAI, Google DeepMind, Anthropic — se livrent une compétition acharnée pour dominer la prochaine vague de l'IA générale. OpenAI, valorisé à plusieurs centaines de milliards de dollars, consolide ainsi sa position de leader tout en cherchant à convertir sa domination technologique en un modèle économique durable face à une concurrence mondiale qui s'intensifie.

UECette levée de fonds renforce la domination d'OpenAI et accentue la dépendance des entreprises et utilisateurs européens vis-à-vis des grands laboratoires américains, un enjeu direct pour la souveraineté numérique de l'UE.

BusinessActu
1 source
World ID : la startup qui veut donner une identité humaine à chaque agent IA
37Le Big Data 

World ID : la startup qui veut donner une identité humaine à chaque agent IA

La startup World, cofondée par Sam Altman et connue pour avoir lancé la cryptomonnaie WorldCoin en 2023, a dévoilé une version bêta d'Agent Kit, un système conçu pour relier les agents IA à des identités humaines vérifiées. Le principe repose sur World ID, une identité numérique unique stockée sur smartphone et validée via un scan de l'iris effectué par des sphères physiques déployées dans le monde entier. À ce jour, environ 18 millions de personnes auraient complété ce processus à travers près de 1 000 orbes répartis sur plusieurs continents, avec environ 18 000 nouveaux inscrits récemment. Techniquement, Agent Kit s'appuie sur le protocole x402, développé en collaboration avec Cloudflare et Coinbase, et qui permet de vérifier les requêtes d'agents IA via des micropaiements ou des jetons d'identité avant d'accorder l'accès à un service. L'enjeu est considérable : l'explosion des agents IA autonomes permet désormais à n'importe qui de déployer des milliers de bots en parallèle en quelques clics, saturant les systèmes en ligne dans des scénarios proches des attaques Sybil. World propose une réponse concrète — plutôt que de bloquer tous les bots indistinctement, les sites web pourraient exiger un jeton World ID pour filtrer les accès et s'assurer qu'un agent représente bien une personne réelle et unique. Un agent pourrait ainsi réserver un restaurant, acheter des billets de spectacle ou accéder à des offres d'essai gratuit, à condition de prouver qu'il agit pour un humain identifié. Forums, sondages et plateformes sociales pourraient également s'appuyer sur ce mécanisme pour lutter contre la manipulation automatisée et les campagnes de spam à grande échelle. Le système soulève néanmoins des questions sérieuses. La collecte biométrique reste son talon d'Achille : un scan d'iris est irréversible, et contrairement à un mot de passe, il ne peut pas être réinitialisé en cas de fuite ou de piratage. World affirme que les données sont chiffrées et stockées localement sur l'appareil, mais la promesse ne suffit pas à dissiper les inquiétudes sur la vie privée, d'autant que le projet a déjà essuyé des critiques réglementaires dans plusieurs pays dès le lancement de WorldCoin. Sur le plan de l'adoption, le défi reste entier : convaincre des centaines de millions d'utilisateurs de scanner leur iris en l'absence d'une application grand public vraiment incontournable constitue un obstacle majeur. Enfin, le protocole x402 peut ralentir les attaques massives en les rendant coûteuses, mais un acteur malveillant bien financé peut tout à fait payer pour les contourner — ce qui signifie que World ID ne résout pas le problème à lui seul, mais en augmente seulement le prix d'entrée.

UELe RGPD encadre strictement la collecte de données biométriques et plusieurs pays européens ont déjà suspendu WorldCoin — l'expansion d'Agent Kit en Europe se heurtera aux mêmes obstacles réglementaires.

InfrastructureOpinion
1 source
OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité
38The Decoder 

OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité

Sam Altman, PDG d'OpenAI, et Kevin Weil, vice-président Science de l'entreprise, ont relayé avec enthousiasme l'histoire d'un consultant australien en IA qui affirmait avoir sauvé sa chienne Rosie d'un cancer incurable grâce à l'intelligence artificielle. L'homme aurait utilisé ChatGPT, AlphaFold — l'outil de prédiction de protéines de DeepMind — et Grok, le modèle d'xAI, pour concevoir un vaccin personnalisé contre la tumeur de son animal. L'histoire est devenue virale après avoir été partagée par Greg Brockman d'OpenAI et Demis Hassabis de DeepMind, présentée comme une démonstration concrète des capacités actuelles de l'IA en médecine. Le problème : aucune preuve ne permet d'affirmer que le vaccin a fonctionné. Les dirigeants d'OpenAI ont amplifié un récit non vérifié comme s'il s'agissait d'une validation scientifique, sans mentionner l'absence totale de données cliniques. Cette promotion enthousiaste par les têtes de l'industrie soulève des questions sérieuses sur la responsabilité des grandes figures tech lorsqu'elles communiquent sur des résultats médicaux non prouvés. L'épisode illustre une tension croissante dans l'écosystème IA : la pression de démontrer des cas d'usage spectaculaires pousse certains dirigeants à amplifier des anecdotes non vérifiées comme preuve de progrès. DeepMind avait pourtant déjà posé des jalons solides avec AlphaFold sur la prédiction de structures protéiques — une avancée réelle et publiée. Instrumentaliser cet outil dans une histoire virale sans validation scientifique brouille la frontière entre communication et désinformation, au moment même où la crédibilité de l'IA médicale est scrutée de près.

UEL'épisode renforce les arguments des régulateurs européens sur la nécessité d'encadrer strictement la communication des acteurs IA dans le domaine médical, un axe central de l'AI Act.

ÉthiqueOpinion
1 source
OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?
39Le Big Data 

OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?

Le mardi 24 mars 2026, l'équipe officielle de Sora a publié un message d'adieu sur X, confirmant la fermeture définitive du générateur de vidéos par IA d'OpenAI. Six mois seulement après son lancement grand public en septembre 2025, l'application est débranchée. Pourtant, les débuts avaient été spectaculaires : Sora avait franchi le million de téléchargements plus vite que ChatGPT en son temps. Mais l'euphorie a été de courte durée. Dès janvier 2026, les téléchargements chutaient de 45 % en un mois, le taux de rétention à 30 jours s'effondrait sous les 8 %, et sur le dernier mois, l'outil ne réunissait plus que 600 000 utilisateurs actifs, relégué à la 172e place de l'App Store. Pendant ce temps, faire tourner l'infrastructure coûtait à OpenAI 15 millions de dollars par jour — une hémorragie financière impossible à tenir. L'accord avec Disney, qui avait investi un milliard de dollars en décembre pour permettre l'intégration de plus de 200 personnages franchisés (Marvel, Star Wars, Pixar) dans les vidéos générées, est lui aussi annulé, l'investissement ne s'étant finalement jamais concrétisé. La fermeture de Sora est avant tout un signal stratégique fort : OpenAI prépare son introduction en bourse pour le quatrième trimestre 2026 et doit convaincre Wall Street de sa rentabilité. Fidji Simo, nouvelle responsable de la division AGI Deployment, a été explicite en interne : l'entreprise ne peut plus se disperser dans des « quêtes secondaires ». Sam Altman a réorganisé ses priorités autour de la levée de capitaux et de la construction de centres de données. Toute la puissance de calcul libérée par l'arrêt de Sora est redirigée vers les clients B2B, jugés bien plus lucratifs. La semaine précédant l'annonce, OpenAI confirmait aussi la fusion de ChatGPT desktop, de son outil de code Codex et de son navigateur web en une seule « super-app » — une consolidation qui illustre cette nouvelle discipline budgétaire. L'entraînement d'un nouveau modèle, nom de code « Spud », vient par ailleurs de s'achever, confirmant que les priorités technologiques ont changé de camp. Sora était apparu en février 2024 comme une promesse de révolution pour Hollywood, capable de générer des vidéos photoréalistes à partir d'un simple texte. Son lancement public avait suscité un engouement mondial, mais le fossé entre la démonstration technique et l'usage quotidien s'est révélé impossible à combler face à la brutalité des chiffres économiques.

UELes créateurs de contenu et studios européens utilisant Sora perdent l'accès à l'outil et doivent se tourner vers des alternatives concurrentes pour leurs productions vidéo générées par IA.

BusinessOpinion
1 source
Apple peut « distiller » le grand modèle Gemini de Google
40The Information AI 

Apple peut « distiller » le grand modèle Gemini de Google

Apple et Google ont conclu un accord de partenariat IA bien plus profond qu'il n'y paraissait. Au-delà du simple ajustement (fine-tuning) du modèle Gemini, Apple dispose d'un accès complet au modèle dans ses propres infrastructures de data centers. Cet accès permet à Apple de produire des modèles plus petits, optimisés pour des tâches spécifiques ou suffisamment légers pour tourner directement sur les appareils Apple — une technique appelée « distillation ». Cela change considérablement la donne pour Siri et les fonctionnalités IA promises depuis longtemps. En exécutant des modèles distillés localement, Apple gagne en vitesse de traitement et en confidentialité, deux avantages cruciaux pour sa clientèle. La dépendance aux serveurs distants diminue, ce qui réduit aussi les coûts d'infrastructure — un enjeu d'autant plus pressant que les capacités serveur sont actuellement en tension dans tout le secteur. En parallèle, OpenAI traverse sa propre restructuration : son PDG Sam Altman vient de réorganiser l'entreprise, lancé un nouveau modèle baptisé « Spud » et mis fin à l'application vidéo Sora — jugée trop gourmande en serveurs dans le cadre d'une stratégie de recentrage sur les produits prioritaires.

LLMsOpinion
1 source
OpenAI : Sam Altman évoque en interne un modèle "très puissant" capable d'"accélérer vraiment l'économie
41The Decoder 

OpenAI : Sam Altman évoque en interne un modèle "très puissant" capable d'"accélérer vraiment l'économie

OpenAI aurait achevé le pré-entraînement de son prochain grand modèle d'IA, dont le nom de code interne est « Spud ». Le PDG Sam Altman l'a décrit en interne comme « très puissant » et capable d'« accélérer vraiment l'économie ». Si ces déclarations se confirment, ce modèle marquerait un nouveau palier dans les capacités des IA génératives, avec des implications potentiellement significatives pour la productivité économique à grande échelle. OpenAI enchaîne les sorties de modèles à un rythme soutenu, dans un contexte de concurrence intense avec Google, Anthropic et les acteurs chinois comme DeepSeek.

UEUn nouveau modèle OpenAI de cette envergure pourrait accélérer l'adoption de l'IA en Europe et renforcer la pression réglementaire dans le cadre de l'AI Act.

LLMsActu
1 source
OpenAI abandonne Sora et les vidéos générées par IA, l’accord avec Disney vole en éclats
42Next INpact 

OpenAI abandonne Sora et les vidéos générées par IA, l’accord avec Disney vole en éclats

OpenAI annonce la fin de Sora, son application de génération vidéo par IA, entraînant également la rupture du partenariat avec Disney. Sam Altman confirme que l'arrêt concerne tous les produits basés sur les modèles vidéo d'OpenAI, en raison des ressources de calcul trop importantes qu'ils consomment. L'entreprise se recentre sur l'IA pour le codage et les tâches professionnelles, dans un contexte de dépenses massives (plus de 11 milliards de dollars par trimestre) avant une entrée en bourse prévue cette année.

BusinessActu
1 source
OpenAI abandonne Sora et son accord milliardaire avec Disney
43The Verge AI 

OpenAI abandonne Sora et son accord milliardaire avec Disney

OpenAI a annoncé l'abandon de Sora, son outil de génération vidéo lancé fin 2024, mettant fin à la fois à l'application et à l'accès API pour les développeurs. Cette décision entraîne également la fin du partenariat majeur avec Disney, qui avait annoncé en décembre un investissement d'un milliard de dollars dans OpenAI incluant une licence pour ses personnages. Selon le Wall Street Journal, c'est Sam Altman lui-même qui a informé les équipes, sans qu'une intégration dans ChatGPT ne soit prévue.

UELes développeurs européens ayant intégré l'API Sora dans leurs projets devront migrer vers des alternatives de génération vidéo.

BusinessActu
1 source
Amis développeurs, Sam Altman vous dit « merci »
44Numerama 

Amis développeurs, Sam Altman vous dit « merci »

Sam Altman, PDG d'OpenAI, a publié un message de gratitude envers les développeurs ayant écrit du code "caractère par caractère". Ce tweet a provoqué une vague de colère dans le secteur tech, déjà en pleine turbulence sociale.

SociétéOpinion
1 source
Comment World ID veut attribuer une identité humaine unique à chaque agent IA
45Ars Technica AI 

Comment World ID veut attribuer une identité humaine unique à chaque agent IA

World (anciennement WorldCoin, fondé par Sam Altman) lance en bêta son "Agent Kit", une solution permettant aux humains de prouver qu'ils contrôlent leurs agents IA, afin que les sites web puissent limiter l'accès aux agents travaillant pour de vrais utilisateurs. Cette technologie s'appuie sur World ID, un système d'identité numérique unique basé sur le scan de l'iris, stocké de façon cryptographique sur le téléphone. L'objectif est de contrer les attaques de type Sybil, où des milliers d'agents IA automatisés submergent les services en ligne.

UELe scan d'iris sur lequel repose World ID constitue une donnée biométrique au sens du RGPD, exposant tout déploiement en France ou dans l'UE à des obligations strictes de conformité, voire à des interdictions comme celles déjà prononcées par plusieurs autorités européennes contre WorldCoin.

OutilsOutil
1 source
Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés
46Next INpact 

Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés

Sam Altman souhaite lancer un mode adulte de ChatGPT permettant des conversations érotiques après vérification d'âge, mais un comité d'experts internes — réunissant des chercheurs comme David Bickham, Tracy Dennis-Tiwary et Andrew Przybylski — s'y est unanimement opposé en janvier. Le comité avertit que ce contenu pourrait créer une dépendance affective malsaine et rester accessible aux mineurs, un expert citant des cas de suicides liés à des chatbots pour qualifier le risque de « coach au suicide séduisant ». OpenAI continue d'avancer sur le projet malgré ces oppositions, tout en reportant son lancement, et a licencié une cadre, Ryan Beiermeister, qui s'était publiquement prononcée contre la fonctionnalité.

UEL'AI Act et le DSA imposent à OpenAI des obligations strictes de protection des mineurs et de modération des contenus en Europe, rendant ce projet potentiellement non-conforme dès son lancement.

ÉthiqueActu
1 source
« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT
47Numerama 

« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT

Face à la montée en puissance d'Anthropic, Sam Altman a opéré un revirement stratégique chez OpenAI : les projets annexes sont abandonnés au profit des outils de productivité pour les entreprises. Cette information, rapportée par le Wall Street Journal le 16 mars 2026, illustre l'intensification de la concurrence dans le secteur de l'IA.

BusinessActu
1 source
Les lieux où la technologie d'OpenAI pourrait se manifester en Iran
48MIT Technology Review 

Les lieux où la technologie d'OpenAI pourrait se manifester en Iran

OpenAI a récemment conclu un accord controversé avec le Pentagone autorisant l'utilisation de sa technologie AI dans des environnements classifiés. Bien que Sam Altman affirme que l'armée ne peut pas utiliser la technologie pour développer des armes autonomes, l'accord semble plutôt exiger que le Pentagone respecte ses propres règles relativement permissives sur ces sujets. L'engagement d'OpenAI de prévenir l'utilisation de sa technologie pour la surveillance interne semble peu credible. Il est incertain quels sont les objectifs d'OpenAI, mais ils cherchent probablement à maximiser leurs ressources financières alors qu'ils dépensent beaucoup en formation d'IA et recherchent de nouvelles sources de revenus. Une question plus importante est l'avenir : OpenAI semble prêt à opérer dans un contexte militaire tendu, y compris pendant les frappes américaines contre l'Iran où l'IA joue un rôle croissant. Les applications potentielles incluent la priorisation de cibles par des modèles AI analyseant diverses informations textuelles, visuelles et vidéo, pour une validation finale humaine. Cependant, cela soulève des préoccupations sur l'efficacité et les risques d'une telle dépendance à l'IA dans des contextes militaires critiques.

UELe déploiement de l'IA d'OpenAI dans des contextes militaires classifiés renforce les débats européens sur l'encadrement de l'IA dans la défense, notamment dans le cadre du règlement IA de l'UE qui exclut certaines applications militaires de son périmètre.

ÉthiqueOpinion
1 source
L’IA, bientôt une ressource payante comme l’eau et l’électricité ? Le plan d’OpenAI
49Le Big Data 

L’IA, bientôt une ressource payante comme l’eau et l’électricité ? Le plan d’OpenAI

Lors du BlackRock Infrastructure Summit à Washington, Sam Altman (OpenAI) a déclaré vouloir transformer l'IA en service public facturé à l'usage, comme l'électricité ou l'eau — les utilisateurs paieraient par tokens consommés plutôt qu'un abonnement global. Face à l'explosion de la demande en puissance de calcul, ce modèle soulève des enjeux d'équité : seuls les plus aisés pourraient accéder massivement à la ressource. Les gouvernements pourraient être contraints d'intervenir pour prioriser certains secteurs (santé, défense, éducation) en cas de pénurie d'infrastructure.

UEUne facturation à l'usage de l'IA pourrait contraindre l'UE à légiférer sur l'accès équitable aux ressources d'IA, notamment pour protéger les secteurs publics européens comme la santé et l'éducation.

BusinessActu
1 source
50Le Big Data 

Sam Altman adore GPT-5.4… pourtant, cette IA a 3 gros défauts

Sam Altman qualifie GPT-5.4 de son modèle préféré, saluant ses performances en code et sa personnalité, mais l'investisseur Matt Schumer identifie trois faiblesses notables. Le modèle génère des interfaces fonctionnelles mais visuellement médiocres comparées à Claude Opus 4.6 ou Gemini 3.1 Pro, et peine à intégrer le contexte réel (ex. : itinéraires de voyage ignorant les périodes de vacances scolaires). Ces lacunes freinent encore son adoption dans certains cas d'usage malgré ses performances techniques globalement élevées.

LLMsOpinion
1 source