Aller au contenu principal

Business

50 sur 616 articles

Actualités business de l'IA : levées de fonds, acquisitions, startups, valorisations et tendances du marché.

Shopify, l'IA en 2026 : explosion des usages, budget Opus-4.6 illimité, avec le CTO Mikhail Parakhin
1Latent Space BusinessOpinion

Shopify, l'IA en 2026 : explosion des usages, budget Opus-4.6 illimité, avec le CTO Mikhail Parakhin

Shopify, la plateforme de commerce en ligne valorisée 200 milliards de dollars, est entrée en 2026 dans ce que son directeur technique Mikhail Parakhin appelle une "phase de transition IA". L'entreprise de vingt ans offre désormais à ses ingénieurs un budget illimité en tokens Claude Opus 4.6 et a déployé trois initiatives internes majeures : Tangle, Tangent et SimGym. Tangle rend les workflows de machine learning reproductibles et collaboratifs grâce à un cache adressé par contenu, se distinguant nettement d'outils comme Airflow. Tangent est un système d'auto-recherche en boucle fermée qui optimise automatiquement des composants comme la recherche produit, la compression de prompts ou le stockage, désormais accessible aux chefs de produit sans expertise ML. SimGym permet de simuler le comportement d'acheteurs à partir des données historiques réelles de Shopify, une infrastructure coûteuse mêlant modèles multimodaux, browser farms et distillation, qui permet d'indiquer précisément à un marchand quoi modifier sur sa boutique pour améliorer ses conversions. Parakhin révèle également que Shopify utilise Liquid AI, qu'il décrit comme la première architecture non-transformer réellement compétitive qu'il ait testée en pratique, notamment pour la compréhension de requêtes à très faible latence. Ce que Shopify documente publiquement est instructif pour toute l'industrie : le vrai goulot d'étranglement dans le développement assisté par IA n'est plus la génération de code, mais la revue, l'intégration continue et la stabilité du déploiement. Parakhin confirme un paradoxe contre-intuitif : les agents IA peuvent produire du code statistiquement plus propre que les humains tout en augmentant le nombre de bugs en production, simplement parce que le volume de code généré explose sans que les processus de validation suivent. Shopify a donc construit son propre workflow de revue de pull requests, jugeant insuffisants les outils standards du marché. Parakhin nuance également la rhétorique de Jensen Huang sur les budgets de tokens : si la direction est juste, le nombre brut de tokens reste une mauvaise métrique pour évaluer la productivité d'une équipe d'ingénierie. Mikhail Parakhin arrive chez Shopify après avoir dirigé des divisions majeures chez Microsoft, notamment Windows, Edge, Bing et la publicité, et avoir présidé à l'ère controversée du chatbot "Sydney" de Bing en 2023. Ce passé lui donne un regard calibré sur la vague actuelle : il situe un point d'inflexion décisif en décembre 2025, moment où la qualité des modèles a franchi un seuil rendant la généralisation à la fois possible et nécessaire pour rester compétitif. Pour Shopify, tenir la frontière technologique n'est plus un avantage optionnel. La combinaison Tangle-Tangent-SimGym est présentée comme un avantage structurel défensif : ces systèmes permettent d'expérimenter de façon reproductible, d'optimiser automatiquement et de simuler le comportement commercial à grande échelle, en s'appuyant sur vingt ans de données transactionnelles que peu de concurrents peuvent répliquer.

1 source
Anthropic a testé le retrait de Claude Code du plan Pro
2Ars Technica AI 

Anthropic a testé le retrait de Claude Code du plan Pro

Anthropic a brièvement semé la confusion chez ses utilisateurs développeurs en faisant apparaître sur sa page de tarification que Claude Code, son outil de développement agentique, ne serait plus accessible aux abonnés du plan Pro à 20 dollars par mois. Les nouveaux inscrits au plan Pro se sont retrouvés dans l'impossibilité d'accéder à Claude Code, tandis que les abonnés existants n'ont constaté aucune interruption de service. L'information s'est rapidement propagée sur Reddit et X, où de nombreux développeurs ont signalé la modification visible sur la page officielle d'Anthropic : Claude Code apparaissait comme non pris en charge en Pro, et uniquement disponible à partir du plan Max, facturé 100 dollars par mois minimum. Amol Avasare, responsable de la croissance chez Anthropic, a finalement pris la parole sur les réseaux sociaux pour préciser qu'il s'agissait d'un "test limité à environ 2 % des nouveaux abonnés prosumer". Ce type de test de tarification, même discret, a des implications concrètes pour les milliers de développeurs indépendants et de petites équipes qui s'appuient sur Claude Code à travers l'abonnement Pro comme alternative économique aux offres professionnelles plus coûteuses. Déplacer Claude Code vers le palier Max multiplierait par cinq le coût mensuel, ce qui représente un seuil significatif pour les utilisateurs individuels. La réaction rapide et visible de la communauté illustre à quel point les outils d'assistance au développement par IA sont devenus centraux dans les flux de travail quotidiens, et à quel point leur accessibilité tarifaire est scrutée de près. Claude Code s'est imposé en quelques mois comme l'un des environnements de développement assisté par IA les plus appréciés du marché, en concurrence directe avec GitHub Copilot, Cursor et d'autres outils similaires. Anthropic navigue actuellement entre deux impératifs : rendre ses modèles accessibles pour stimuler l'adoption, tout en trouvant un modèle économique viable pour des fonctionnalités à forte consommation de compute comme les agents autonomes. Ce test, même avorté ou limité, révèle que l'entreprise explore activement comment repositionner ses outils les plus puissants dans des offres mieux monétisées, une tendance que l'on observe également chez OpenAI et Google avec leurs propres produits destinés aux développeurs.

UELes développeurs indépendants français et européens abonnés au plan Pro pourraient voir leur coût mensuel multiplié par cinq si Anthropic décidait de réserver Claude Code au plan Max.

Chez UBER, l’IA fait exploser les budgets / Chez META, les salariés entraînent les machines / OpenAI muscle son jeu en Europe avec un Français à sa tête
3FrenchWeb 

Chez UBER, l’IA fait exploser les budgets / Chez META, les salariés entraînent les machines / OpenAI muscle son jeu en Europe avec un Français à sa tête

Chez Uber, le directeur technique Praveen Neppalli Naga a révélé, selon The Information, que l'usage intensif des outils de génération de code par automatique a déjà épuisé la totalité du budget IA alloué pour 2026, pourtant censé couvrir l'ensemble de l'exercice. Des solutions comme Claude Code d'Anthropic sont au coeur de cette dérive budgétaire. De son côté, Meta a mis en place un programme interne où ses propres salariés participent activement à l'entraînement de ses modèles d'intelligence artificielle, transformant les employés en contributeurs directs du pipeline de données. Enfin, OpenAI renforce sa présence en Europe en nommant un Français à la tête de ses opérations sur le continent. Ces trois signaux illustrent une même réalité : les entreprises tech sous-estiment systématiquement les coûts et la profondeur organisationnelle de l'intégration de l'IA. Chez Uber, la dérive budgétaire en quelques mois seulement soulève des questions sur la gouvernance des dépenses IA à grande échelle. La démarche de Meta pose, elle, des questions éthiques sur la frontière entre rôle professionnel et contribution à des systèmes d'automatisation. La nomination chez OpenAI signale quant à elle que le marché européen est désormais trop stratégique pour être géré depuis les États-Unis. L'explosion des usages de l'IA générative en entreprise depuis 2023 a pris de court les directions financières, qui découvrent que les tokens consommés à l'échelle d'ingénieries entières représentent des coûts variables difficiles à anticiper. Dans ce contexte, Meta mise sur l'humain en interne pour améliorer la qualité de ses modèles face à OpenAI et Google, tandis qu'OpenAI cherche à ancrer sa légitimité réglementaire et commerciale en Europe, un terrain où les résistances institutionnelles restent fortes.

UELa nomination d'un Français à la tête des opérations européennes d'OpenAI signale une stratégie d'ancrage réglementaire et commercial en Europe, tandis que les dérives budgétaires IA documentées chez Uber concernent directement les DSI et DAF européens confrontés aux mêmes enjeux de gouvernance des coûts IA.

BusinessActu
1 source
CoreWeave a convaincu les marchés obligataires
4The Information AI 

CoreWeave a convaincu les marchés obligataires

En l'espace de quelques semaines d'avril 2026, CoreWeave a levé près de 16 milliards de dollars auprès d'une diversité d'investisseurs rarement vue pour une entreprise technologique. Le 31 mars, la société a bouclé une facilité de crédit de 8,5 milliards de dollars adossée à ses propres processeurs graphiques Nvidia. Le 9 avril, elle a élargi un contrat existant avec Meta Platforms à 21 milliards de dollars pour la fourniture de capacités de calcul. Elle a ensuite émis 1,25 milliard de dollars d'obligations à haut rendement et 3 milliards en titres convertibles, des opérations rapidement augmentées d'un milliard supplémentaire. Dans la foulée, Anthropic a annoncé son arrivée comme nouveau client. La semaine suivante, CoreWeave a placé encore un milliard d'obligations sans même organiser de tournée de présentation auprès des investisseurs. Au milieu de tout cela, la firme de trading Jane Street a investi 1 milliard de dollars dans CoreWeave et s'est engagée à dépenser 6 milliards en services cloud IA sur la plateforme. Le titre de l'entreprise a progressé de 55 % sur le mois. Ce niveau de financement reflète un changement de posture profond chez les investisseurs obligataires, traditionnellement prudents vis-à-vis des entreprises technologiques. Ces acteurs ont longtemps boudé le secteur, jugé trop risqué, et avaient manifesté leur inquiétude l'an dernier face à la vague d'endettement d'Oracle et d'autres constructeurs d'infrastructures IA. Désormais, la demande massive et les engagements fermes de géants comme Meta suffisent à rassurer des fonds tels que Janus Henderson Investors, dont le responsable de la recherche crédit Mike Talaga résume la position : "Nous acceptons le risque de construction parce que la demande est là." Pour les investisseurs, CoreWeave représente un levier direct sur le succès de l'IA, avec une capacité démontrée à livrer de la puissance de calcul et à convaincre ses clients d'en commander davantage. L'entrée de Jane Street, acteur financier et non développeur d'IA, signale en outre que l'appétit pour ces services dépasse désormais le cercle des pure players technologiques. La trajectoire de CoreWeave s'inscrit dans une course effrénée à l'infrastructure déclenchée par les progrès rapides de l'IA générative. La pénurie de capacités de calcul a transformé les fournisseurs de cloud spécialisés en acteurs incontournables du secteur. CoreWeave cherche à consolider son avance en enrichissant son offre de logiciels et de services pour fidéliser ses clients. Nick Robbins, vice-président en charge du développement corporate, reconnaît cependant que l'ère actuelle est "celle de la croyance plutôt que du scepticisme." Cette dynamique pourrait s'emballer à court terme, mais elle comporte des risques systémiques : contrairement aux marchés actions, une turbulence dans l'obligataire peut freiner le crédit à l'échelle de l'économie entière, et de lourdes pertes futures dans ce compartiment pourraient se propager bien au-delà du seul secteur IA.

BusinessOpinion
1 source
OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?
5The Information AI 

OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?

SpaceX, la société de Elon Musk, a annoncé mardi la signature d'un accord d'acquisition de Cursor, l'application d'aide au code alimentée par l'IA, pour un montant de 60 milliards de dollars. La transaction, dont la date de finalisation n'a pas été précisée, prévoit une clause de rupture de 10 milliards de dollars si l'accord venait à capoter. Il s'agit de l'une des plus grandes acquisitions jamais réalisées sur une startup financée par capital-risque. Cursor génère déjà des milliards de dollars de revenus annuels et s'est imposé comme l'un des outils de développement assisté par IA les plus utilisés dans l'industrie. Cette acquisition donnerait à xAI, la branche intelligence artificielle de Musk, une présence massive sur le marché des outils de développement, un segment où son modèle Grok peine à s'imposer. L'enjeu est considérable : le marché du coding assisté par IA est en pleine explosion, et les entreprises qui parviennent à fidéliser les développeurs sur leurs outils bénéficient d'un avantage concurrentiel durable. L'opération interviendrait dans un contexte où SpaceX prépare une introduction en bourse pouvant valoriser la société jusqu'à 1 500 milliards de dollars cet été, ce qui relativise le montant de la transaction. La bataille pour le coding IA s'annonce néanmoins difficile pour xAI. Les principaux concurrents, Claude Code d'Anthropic et Codex d'OpenAI, ont déjà une longueur d'avance en matière de modèles spécialisés et d'intégration dans les workflows des développeurs. En parallèle, la question plus large de l'évolution des architectures de modèles se pose : le raisonnement étendu, dit test-time compute, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, est présenté comme l'une des avancées majeures de ces deux dernières années. OpenAI et Anthropic semblent pourtant revoir leurs priorités dans ce domaine, ce qui pourrait redistribuer les cartes dans la course aux modèles de coding.

BusinessOpinion
1 source
Les « exportations de tokens » peuvent-elles donner un avantage à la Chine dans l'ère de l'IA ?
6SCMP Tech 

Les « exportations de tokens » peuvent-elles donner un avantage à la Chine dans l'ère de l'IA ?

Les entreprises chinoises d'intelligence artificielle s'imposent progressivement comme fournisseurs majeurs de ce que les analystes appellent des "exportations de tokens" sur le marché mondial. Selon des données couvrant la période du 18 mars au 18 avril 2026, les modèles chinois représentaient quatre des dix modèles les plus consommés en tokens sur OpenRouter, une place de marché de référence pour les développeurs. Cette présence dans le top 10 mondial illustre une percée concrète dans les usages réels, au-delà des seuls benchmarks techniques. L'enjeu dépasse la simple compétition technologique. Les tokens consommés via des modèles comme DeepSeek ou Qwen représentent une forme d'influence économique et stratégique nouvelle : chaque requête traitée par un modèle chinois génère des données d'usage, fidélise des développeurs et ancre une infrastructure logicielle dans les flux numériques mondiaux. Pour l'industrie tech mondiale, cela signifie que la domination américaine sur l'outillage IA des développeurs n'est plus acquise, et que les éditeurs comme OpenAI ou Anthropic font désormais face à une concurrence directe sur les marchés émergents et auprès des développeurs indépendants. Ce phénomène s'inscrit dans un contexte de montée en puissance accélérée des modèles chinois depuis la publication de DeepSeek-R1 début 2025, qui avait démontré qu'un modèle très compétitif pouvait être entraîné à coût réduit. La demande domestique en Chine croît également fortement, ce qui renforce la capacité des acteurs locaux à investir en R&D et à baisser leurs prix à l'export, une dynamique que Washington surveille de près dans un contexte de restrictions sur les semi-conducteurs.

UELes développeurs européens indépendants sont directement exposés à cette concurrence tarifaire, les modèles chinois comme DeepSeek ou Qwen s'imposant comme alternatives compétitives aux outils américains sur des plateformes comme OpenRouter.

BusinessOpinion
1 source
NeoCognition lève 40 millions pour bâtir des agents IA experts dans tous les domaines
7Le Big Data 

NeoCognition lève 40 millions pour bâtir des agents IA experts dans tous les domaines

La start-up américaine NeoCognition a annoncé le 21 avril 2026 une levée de fonds de 40 millions de dollars en seed, conduite par Cambium Capital et Walden Catalyst Ventures, avec la participation de Vista Equity Partners. L'entreprise, fondée par Yu Su, professeur à l'Université d'État de l'Ohio et spécialiste reconnu des systèmes d'agents IA, se positionne sur un défi précis : faire passer les agents IA du statut de généralistes approximatifs à celui d'experts fiables dans des domaines métiers spécifiques. Finance, santé, logistique, chaque secteur a ses propres règles, contraintes et interactions, et c'est exactement ce que NeoCognition entend apprendre à ses agents à maîtriser de manière autonome, sans intervention humaine constante. Le problème central que la start-up cherche à résoudre est bien documenté : selon Yu Su, les agents IA actuels, qu'ils soient issus de Perplexity, Claude ou d'autres plateformes, n'atteignent qu'environ 50 % de taux de réussite sur des tâches complexes. Un chiffre rédhibitoire pour toute automatisation sérieuse en entreprise, où chaque erreur peut avoir des conséquences opérationnelles ou financières. La différence clé repose sur l'apprentissage : là où les agents existants se contentent de relancer des requêtes en cas d'échec, NeoCognition veut construire des systèmes qui s'améliorent réellement en continu, en internalisant progressivement les règles d'un domaine donné, à la manière dont un humain devient expert à force de pratique et de retour d'expérience. C'est ce mécanisme d'auto-spécialisation qui constitue le coeur de la proposition technologique. Yu Su a longtemps hésité à commercialiser ses recherches académiques, mais il a finalement franchi le pas en constatant que les progrès récents des modèles fondamentaux rendaient enfin envisageable la création d'agents réellement personnalisables et opérationnels à l'échelle industrielle. NeoCognition s'inscrit dans une vague plus large de startups qui ciblent le marché B2B plutôt que le grand public, pariant sur la fiabilité comme avantage concurrentiel décisif face aux grands acteurs généralistes. Les investisseurs semblent partager ce diagnostic : Vista Equity Partners, habitué des logiciels d'entreprise, et les deux fonds lead témoignent d'un intérêt croissant pour des modèles capables d'industrialiser des cas d'usage à haute exigence. Si NeoCognition tient ses promesses, elle pourrait combler le fossé persistant entre les démonstrations technologiques spectaculaires de l'IA et un déploiement professionnel digne de confiance.

BusinessOpinion
1 source
Un laboratoire d'IA Lenovo à Hetao renforce la coopération tech Hong Kong-Shenzhen
8SCMP Tech 

Un laboratoire d'IA Lenovo à Hetao renforce la coopération tech Hong Kong-Shenzhen

Lenovo Group, le premier fabricant mondial d'ordinateurs personnels, a inauguré mercredi un laboratoire d'innovation au parc technologique Hetao de Hong Kong, officiellement connu sous le nom de Hong Kong-Shenzhen Innovation and Technology Park (HSITP). Couvrant 87 hectares dans le nord de Hong Kong, ce hub est le fruit de la coopération technologique entre Hong Kong et Shenzhen. Lenovo devient ainsi la première multinationale à annoncer officiellement sa présence côté hongkongais de la zone Hetao, s'engageant à aider les entreprises à adopter l'intelligence artificielle et à s'internationaliser. Cette implantation marque un signal fort pour l'attractivité du pôle Hetao, qui peine encore à attirer des grandes entreprises tech internationales. La présence de Lenovo, dont le chiffre d'affaires annuel dépasse 60 milliards de dollars, pourrait encourager d'autres multinationales à franchir le pas. Pour les startups et PME locales, l'accès à l'expertise IA d'un acteur de cette envergure représente une opportunité concrète d'accélération technologique et d'accès aux marchés mondiaux. Le projet Hetao s'inscrit dans la stratégie plus large de Pékin visant à faire de la région Grande Baie, qui regroupe Hong Kong, Macao et neuf villes du Guangdong dont Shenzhen, un pôle mondial d'innovation technologique. Hong Kong cherche à réaffirmer son rôle de pont entre la Chine continentale et les marchés internationaux, notamment dans un contexte de concurrence accrue avec Singapour pour attirer les sièges régionaux des grandes entreprises tech.

BusinessActu
1 source
Pourquoi DeepSeek cherche encore des financements malgré ses importantes liquidités, selon des sources
9SCMP Tech 

Pourquoi DeepSeek cherche encore des financements malgré ses importantes liquidités, selon des sources

DeepSeek, la start-up chinoise d'intelligence artificielle basée à Hangzhou, lève des fonds externes pour la première fois de son histoire. Selon trois investisseurs directement impliqués dans les négociations, l'entreprise cherche à céder au maximum 3 % de son capital, maintenant volontairement la taille du tour de table à un niveau modeste. Spin-off du fonds spéculatif High-Flyer, DeepSeek dispose pourtant de ressources financières importantes, ce qui rend cette démarche d'autant plus remarquée dans le secteur. Cette levée limitée à 3 % répond à une logique précise : préserver la structure capitalistique de l'entreprise tout en offrant des mécanismes de rétention aux talents clés, dans un contexte de compétition féroce pour les ingénieurs en IA. En restant majoritairement fermée aux investisseurs extérieurs, DeepSeek conserve son indépendance stratégique et évite la pression des actionnaires sur ses décisions de développement, un modèle rare dans un écosystème où la plupart des acteurs brûlent des capitaux à grande échelle. DeepSeek s'est imposée sur la scène mondiale début 2025 avec la sortie de son modèle R1, qui a démontré des performances comparables aux meilleurs modèles américains à une fraction du coût de développement annoncé, provoquant un séisme boursier aux États-Unis. L'entreprise évolue dans un environnement géopolitique tendu, où les restrictions américaines sur les semi-conducteurs contraignent l'accès aux puces Nvidia de dernière génération. Cette levée symbolique pourrait aussi viser à attirer des partenaires stratégiques plutôt que de simples financeurs, alors que la rivalité sino-américaine en IA s'intensifie.

UELa pression concurrentielle de DeepSeek sur les coûts de développement des LLMs accentue les défis stratégiques pour les acteurs et investisseurs européens de l'IA face à la rivalité sino-américaine.

BusinessActu
1 source
SpaceX s’allie à Cursor avec une option de rachat à 60 milliards
10Le Big Data 

SpaceX s’allie à Cursor avec une option de rachat à 60 milliards

SpaceX a officialisé le 21 avril 2026 un accord stratégique avec Cursor, l'éditeur de l'assistant de codage IA plébiscité par les développeurs professionnels. La structure de l'opération est atypique : SpaceX dispose soit de verser 10 milliards de dollars à Cursor pour ses travaux de développement, soit de procéder à une acquisition totale valorisant la start-up à 60 milliards de dollars. En parallèle, xAI, autre entité d'Elon Musk, a commencé à louer sa puissance de calcul à Cursor, mobilisant des dizaines de milliers de puces pour l'entraînement de modèles, selon Business Insider. The Information a également révélé que deux cadres importants de Cursor ont rejoint xAI récemment. Cursor, valorisée seulement 2,5 milliards de dollars début 2025, a bondi à 9 milliards quelques mois plus tard, puis à près de 30 milliards après une levée de fonds de 2,3 milliards en série D. L'option à 60 milliards acte une nouvelle étape dans cette ascension spectaculaire. Cet accord repose sur une logique de complémentarité : Cursor apporte son produit et sa base d'utilisateurs, essentiellement des développeurs expérimentés, tandis que SpaceX met à disposition le supercalculateur Colossus, dont la puissance équivaut à un million de puces Nvidia H100. L'objectif affiché est de créer les meilleurs outils d'IA au monde pour le codage et le travail de connaissance. Pour SpaceX, l'enjeu est de s'imposer rapidement sur un segment à forte valeur sans nécessairement décaisser immédiatement les 60 milliards, en conservant une option d'achat. Pour Cursor, l'accord constitue une validation implicite de sa valorisation, supérieure aux 50 milliards que la start-up visait lors de récentes discussions privées. Ce rapprochement s'inscrit dans une logique plus large de consolidation des actifs IA d'Elon Musk, qui cherche à créer un écosystème intégré combinant infrastructure de calcul, modèles de langage et outils de distribution. Le timing n'est pas anodin : SpaceX prépare une introduction en bourse très attendue, et l'intégration d'une brique logicielle à fort potentiel renforcerait son profil de conglomérat technologique au-delà du spatial. Cependant, le partenariat révèle aussi les faiblesses structurelles des deux parties : ni Cursor ni xAI ne disposent aujourd'hui de modèles capables de rivaliser pleinement avec ceux d'OpenAI ou d'Anthropic, qui dominent le marché de l'IA pour développeurs. L'alliance vise précisément à combler ce retard, mais SpaceX doit jongler avec des engagements financiers déjà conséquents, notamment après l'acquisition de xAI et du réseau social X, et les modalités de paiement, cash ou actions, restent à préciser.

Lingji Tianci lève plusieurs millions de yuans pour un jouet pour enfants intégrant l'IA
11Pandaily 

Lingji Tianci lève plusieurs millions de yuans pour un jouet pour enfants intégrant l'IA

La startup pékinoise Beijing Lingji Tianci Technology a finalisé deux tours de financement cumulant plusieurs dizaines de millions de yuans au cours de l'année écoulée. Le tour de table initial (angel round) a été mené par Delian Capital, avec la participation des fonds Xiaokonglong et Ruisheng, tandis que le tour Pre-A a été conduit par Implic Capital. La société a lancé sa marque de jouets intelligents "Jollybubu", dont la sortie officielle est prévue fin mai 2026. Le concept repose sur un système "peluche + hub" : chaque peluche correspond à un agent IA autonome, doté de sa propre base de connaissances et d'une personnalité distincte. Posée sur le hub, elle permet des conversations vocales interactives et des réponses coordonnées entre plusieurs personnages. La technologie intègre la reconnaissance vocale automatique (ASR), la synthèse vocale (TTS) et un grand modèle de langage pour orchestrer ces interactions multi-agents. Une mini-application accompagnatrice enregistre et visualise les données d'interaction de l'enfant, révélant ses centres d'intérêt et ses habitudes d'engagement. Ce produit s'adresse directement aux parents soucieux d'encadrer le temps d'écran de leurs enfants tout en leur offrant une expérience éducative et ludique enrichie. La proposition de Jollybubu se distingue par son modèle économique centré sur la vente de matériel plutôt que sur un abonnement mensuel, ce qui réduit la friction à l'achat et élargit le marché potentiel. Pour l'industrie du jouet connecté, l'intégration d'agents IA individualisés par personnage représente un saut qualitatif par rapport aux assistants vocaux génériques existants. Le marché des jouets intelligents pour enfants connaît une effervescence croissante en Chine, où plusieurs startups tentent de combiner l'attrait émotionnel des peluches traditionnelles avec les capacités des LLM de dernière génération. Lingji Tianci s'inscrit dans cette tendance de "hardware IA grand public" qui mise sur l'objet physique comme point d'entrée, à rebours des applications purement logicielles. Le soutien d'investisseurs spécialisés comme Implic Capital, actif sur les technologies éducatives, suggère une ambition qui dépasse le simple gadget pour viser un segment premium de l'éveil numérique de l'enfant.

BusinessActu
1 source
Alibaba présente l'avatar "Qwen Dimples" pour unifier son écosystème d'assistants IA
12Pandaily 

Alibaba présente l'avatar "Qwen Dimples" pour unifier son écosystème d'assistants IA

Alibaba a officiellement dévoilé le 22 avril 2026 "Qwen Dimples", un avatar numérique conçu pour incarner l'interface unifiée de son écosystème d'IA Qwen. Ce personnage virtuel sera d'abord intégré à l'application Qwen, puis progressivement déployé sur les grandes plateformes du groupe, dont Taobao, Fliggy, Amap et Alipay. Il ne s'agit pas d'un nouveau produit autonome, mais d'une couche d'identité visuelle et d'interaction destinée à fédérer l'ensemble des services IA d'Alibaba sous une même présence reconnaissable. En amont du lancement, la filiale Alibaba (China) Co., Ltd. avait déposé plusieurs marques commerciales liées à "Qwen Dimples" dès le 10 mars 2026, couvrant des domaines aussi variés que l'IA-as-a-service, les logiciels de chatbot et la robotique humanoïde. Ces demandes sont actuellement en cours d'examen. L'initiative intervient alors que l'application Qwen affiche une audience considérable : selon QuestMobile, elle comptait 166 millions d'utilisateurs actifs mensuels en mars 2026, ce qui la place au deuxième rang parmi les applications d'IA natives en Chine. Sa base d'utilisateurs a bondi d'environ 126 millions au seul premier trimestre 2026, une croissance particulièrement rapide. Toutefois, la fréquence d'utilisation mensuelle moyenne reste à 19,8 sessions par utilisateur, un chiffre inférieur à certains concurrents, ce qui suggère un enjeu d'engagement et de fidélisation que l'avatar cherche peut-être à adresser. La stratégie d'Alibaba s'inscrit dans une tendance plus large où les grandes plateformes technologiques cherchent à humaniser leurs interfaces IA pour renforcer l'attachement des utilisateurs. En dotant Qwen d'un visage et d'une personnalité cohérente sur l'ensemble de son écosystème, Alibaba suit une logique similaire à celle d'autres géants comme ByteDance ou Baidu, qui ont également misé sur des avatars et des mascottes numériques. Les dépôts de marques dans le domaine de la robotique humanoïde laissent également entrevoir des ambitions au-delà du logiciel, dans un secteur que le groupe suit de près.

BusinessOpinion
1 source
SpaceX mise 60 milliards sur CURSOR, Elon Musk contourne la guerre des modèles
13FrenchWeb 

SpaceX mise 60 milliards sur CURSOR, Elon Musk contourne la guerre des modèles

SpaceX, dont la valorisation pourrait atteindre 60 milliards de dollars à l'occasion d'une introduction en bourse qui s'annonce historique, accélère son repositionnement stratégique autour de l'intelligence artificielle. Sous l'impulsion directe d'Elon Musk, l'entreprise fait le pari de CURSOR, un outil d'IA intégré à ses processus internes de développement logiciel, pour devenir une plateforme technologique à part entière et non plus simplement un acteur du spatial. Ce virage s'opère à un rythme soutenu, avec l'ambition de capter une part structurante de la valeur générée par le secteur de l'IA. Le choix de CURSOR n'est pas anodin : en s'appuyant sur un outil de développement assisté par IA plutôt que sur un modèle fondamental propriétaire, SpaceX contourne la guerre d'attrition qui oppose actuellement OpenAI, Google, Anthropic et Meta dans la course aux LLMs. Cette posture de "consommateur stratégique" plutôt que de "constructeur de modèles" permet à l'entreprise de bénéficier des avancées de l'ensemble de l'écosystème sans en supporter les coûts d'entraînement colossaux, tout en intégrant l'IA profondément dans sa chaîne de valeur industrielle. Ce mouvement intervient dans un contexte où SpaceX prépare activement son entrée en bourse, un événement qui pourrait établir un record de valorisation dans l'histoire des marchés technologiques américains. Musk, qui dirige simultanément xAI et Tesla, joue ici une carte différente pour SpaceX : celle d'une intégration verticale de l'IA au service de l'ingénierie aérospatiale et de la connectivité via Starlink. Les suites dépendront en grande partie de la capacité de l'entreprise à démontrer aux investisseurs que cette orientation technologique se traduit en avantage concurrentiel mesurable avant l'IPO.

BusinessOpinion
1 source
Adobe facturera ses agents IA uniquement en cas de succès
14The Information AI 

Adobe facturera ses agents IA uniquement en cas de succès

Adobe va désormais facturer ses agents d'intelligence artificielle uniquement lorsqu'ils accomplissent réellement une tâche, selon Anil Chakravarthy, président de l'entreprise. Ce modèle de tarification à la performance s'appliquera à CX Enterprise, la nouvelle suite de produits IA rebaptisée cette semaine, qui regroupe des agents capables d'exécuter des "tâches complètes" pour le compte d'entreprises clientes. Concrètement, un agent CX Enterprise peut croiser des données issues d'applications Adobe avec des sources tierces comme des bases de données Amazon Web Services pour diagnostiquer, par exemple, pourquoi les réservations hôtelières chutent dans le sud de la France pour un client du secteur touristique. Ce modèle "pay for outcomes" représente une rupture significative avec les abonnements fixes traditionnels, et va même plus loin que la tarification à l'usage adoptée récemment par Anthropic, Salesforce, ServiceNow ou Workday. Pour les entreprises clientes, l'avantage est clair : elles ne paient que pour des résultats mesurables, ce qui réduit le risque financier lié à l'adoption de ces outils. Pour Adobe, c'est un pari sur la confiance et sur la maturité de ses agents IA, dont la fiabilité doit être suffisante pour supporter ce type d'engagement commercial. Cette annonce s'inscrit dans une recomposition profonde du marché des logiciels d'entreprise autour de l'IA agentique. Des startups comme Sierra ont déjà montré la voie avec cette approche, forçant les grands éditeurs à repenser leurs modèles économiques pour rester compétitifs. Adobe, historiquement positionné sur la création et le marketing digital, cherche à s'imposer dans l'espace de l'expérience client automatisée, un marché en pleine explosion où les agents IA sont appelés à remplacer des workflows entiers. La course à la monétisation de l'IA agentique ne fait que commencer, et le modèle à la performance pourrait rapidement devenir la norme attendue par les acheteurs entreprises.

UELes entreprises européennes clientes d'Adobe pourraient bénéficier d'un modèle de facturation à la performance, réduisant le risque financier lié à l'adoption de l'IA agentique dans leurs workflows.

BusinessOpinion
1 source
Anthropic reçoit 5 milliards de dollars d'Amazon et s'engage à acheter ses puces
15Ars Technica AI 

Anthropic reçoit 5 milliards de dollars d'Amazon et s'engage à acheter ses puces

Amazon a annoncé un investissement supplémentaire de 5 milliards de dollars dans Anthropic, le créateur du modèle d'IA Claude, portant l'engagement financier total du géant du e-commerce à 13 milliards de dollars. Cet accord, révélé par le Wall Street Journal, prévoit également la possibilité qu'Amazon injecte jusqu'à 20 milliards de dollars supplémentaires si le partenariat atteint certains jalons commerciaux. En contrepartie, Anthropic utilisera ces fonds pour acquérir des puces IA auprès d'Amazon, avec la capacité d'en obtenir suffisamment pour atteindre jusqu'à 5 gigawatts de puissance de calcul, destinés à entraîner et faire fonctionner ses modèles Claude. Cet afflux massif de capitaux arrive à un moment décisif pour Anthropic, qui fait face à une demande explosive pour ses abonnements payants depuis début 2026. Cette montée en charge brutale a mis sous pression l'infrastructure cloud existante, entraînant des problèmes de performance et des interruptions de service pour des milliers d'utilisateurs. Accéder à davantage de capacité de calcul via Amazon Web Services permettrait à Anthropic de stabiliser ses services et de soutenir la croissance rapide de sa base d'utilisateurs sans être freiné par des goulots d'étranglement techniques. Amazon avait déjà investi 8 milliards de dollars dans Anthropic lors de rounds précédents, s'imposant comme l'un des principaux soutiens financiers de la startup. Ce partenariat stratégique positionne AWS comme fournisseur cloud de référence pour Anthropic, face à Microsoft qui joue le même rôle auprès d'OpenAI et Google qui développe ses propres modèles Gemini en interne. La course aux ressources de calcul est devenue l'un des principaux fronts de compétition dans l'IA générative, et cet accord illustre comment les grands acteurs cloud transforment leurs investissements financiers en avantages infrastructurels durables. La clause des 20 milliards conditionnels signale également qu'Amazon mise sur une croissance continue de Claude comme levier commercial stratégique pour AWS.

UEL'accord renforce la domination d'AWS comme infrastructure cloud de référence pour l'IA, accentuant la dépendance des entreprises européennes aux hyperscalers américains et complexifiant les enjeux de souveraineté numérique dans le cadre de l'AI Act.

BusinessActu
1 source
Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW
16Next INpact 

Anthropic et Amazon étendent leur accord, 5 milliards de dollars contre 5 GW

Anthropic et Amazon ont annoncé lundi un accord stratégique de grande ampleur, combinant un investissement massif en capital et une promesse de dépenses garanties en infrastructure. Amazon injecte 5 milliards de dollars dans Anthropic, avec une option ouverte sur 20 milliards supplémentaires dont les conditions restent floues. En contrepartie, Anthropic s'engage à mobiliser l'équivalent de 5 gigawatts de puissance de calcul sur les infrastructures AWS, dont près d'1 GW de capacité Trainium2 et Trainium3 opérationnelle d'ici fin 2026. Ces engagements représenteraient, selon Anthropic, plus de 100 milliards de dollars de dépenses sur dix ans. L'accord inclut également un volet commercial inédit : la Claude Platform, l'accès API aux modèles d'Anthropic, sera intégrée directement dans l'écosystème AWS, avec une facturation unifiée et sans contrats séparés, actuellement en bêta privée. Cet accord repose le cloud computing au centre de la compétition entre les grands laboratoires d'IA. Pour Amazon, verrouiller Anthropic comme client et partenaire stratégique sur ses puces Trainium renforce la crédibilité d'une gamme encore peu éprouvée face aux GPU de Nvidia. Pour Anthropic, l'intégration native dans AWS ouvre un accès direct à des centaines de milliers d'entreprises clientes du leader du cloud, sans passer par l'intermédiaire de Bedrock, le service agnostique d'Amazon qui dilue la visibilité des modèles individuels. La facturation unifiée réduit la friction d'adoption pour les équipes techniques, ce qui pourrait accélérer significativement la croissance commerciale d'Anthropic auprès des entreprises soumises à des contraintes de gouvernance strictes. Cet accord s'inscrit dans une relation qui remonte à fin 2023, Amazon ayant déjà investi 8 milliards de dollars dans Anthropic en deux tranches. Il intervient dans un contexte de course aux engagements d'infrastructure entre les grands acteurs de l'IA : Anthropic avait évoqué fin octobre son intention d'exploiter un million de TPU Google, et affirme aujourd'hui utiliser un million de puces Trainium2. La superposition de ces engagements pose des questions sur leur compatibilité réelle et sur la précision des chiffres en équivalent-puissance, une unité de mesure devenue courante mais difficile à vérifier. Sur le plan financier, Anthropic profite de l'annonce pour réaffirmer une trajectoire de revenus annualisés supérieure à 3 milliards de dollars, contre 9 milliards de dollars projetés fin 2025, ce qui la placerait désormais devant OpenAI, dont Sam Altman revendiquait 2 milliards de dollars de chiffre d'affaires mensuel en mars dernier.

UEL'intégration de Claude Platform directement dans l'écosystème AWS simplifie l'accès aux modèles d'Anthropic pour les entreprises européennes déjà clientes du cloud Amazon, réduisant la friction d'adoption sans contrats séparés.

BusinessOpinion
1 source
Amazon investit 33 milliards dans Anthropic, qui s'engage à dépenser 100 milliards sur AWS
17The Decoder 

Amazon investit 33 milliards dans Anthropic, qui s'engage à dépenser 100 milliards sur AWS

Amazon a annoncé un investissement supplémentaire pouvant atteindre 25 milliards de dollars dans Anthropic, portant l'engagement total du géant du e-commerce à environ 33 milliards de dollars dans la startup d'intelligence artificielle. En contrepartie, Anthropic s'est engagée à dépenser plus de 100 milliards de dollars sur l'infrastructure cloud d'Amazon Web Services au cours des dix prochaines années. Cet accord massif vise notamment à répondre à la tension croissante sur les capacités de calcul dont Anthropic a besoin pour entraîner et déployer ses modèles Claude à grande échelle. L'impact de ce partenariat est considérable pour l'ensemble de l'industrie de l'IA. Pour Anthropic, l'accès garanti à une infrastructure AWS de cette ampleur lui permet de rivaliser avec OpenAI et Google DeepMind sans être freinée par des contraintes de capacité. Pour Amazon, l'accord consolide AWS comme fournisseur cloud de référence pour les acteurs de l'IA générative, un marché en pleine explosion où Microsoft Azure et Google Cloud se disputent chaque contrat stratégique. Ce deal illustre parfaitement la dynamique circulaire qui caractérise désormais le secteur : les grands fournisseurs cloud injectent des milliards dans des startups IA, qui recyclent immédiatement ces fonds en achats d'infrastructure chez ces mêmes investisseurs. Amazon avait déjà investi 4 milliards de dollars dans Anthropic en 2023, avant un second engagement de plusieurs milliards en 2024. Cette escalade des montants reflète la course aux ressources de calcul qui structure la compétition mondiale en intelligence artificielle, où la puissance de traitement est devenue l'actif stratégique le plus convoité.

UELe renforcement d'AWS comme infrastructure cloud dominante pour l'IA générative accentue la dépendance des entreprises européennes envers les hyperscalers américains, creusant l'écart avec les ambitions de souveraineté numérique portées par le Cloud de Confiance et les initiatives européennes.

Course à l’IA : le laboratoire de Jeff Bezos proche d’un méga deal à 38 milliards
18Le Big Data 

Course à l’IA : le laboratoire de Jeff Bezos proche d’un méga deal à 38 milliards

Project Prometheus, la start-up d'IA cofondée par Jeff Bezos, s'apprête à finaliser une levée de fonds de près de 10 milliards de dollars qui porterait sa valorisation à 38 milliards, selon le Financial Times. Cette opération intervient moins d'un an après un premier tour de table de 6,2 milliards, confirmant une trajectoire de financement exceptionnellement rapide. La société, fondée il y a moins de 12 mois, compte entre 50 et 200 employés recrutés en grande partie chez OpenAI, xAI et Google DeepMind. Elle est dirigée par Jeff Bezos aux côtés de Vik Bajaj, ancien responsable de Google X et professeur associé à Stanford. Ses bureaux sont établis à San Francisco, au coeur de l'écosystème mondial de l'IA. Par ailleurs, selon le New York Times, Bezos aurait engagé des discussions préliminaires avec des investisseurs du Moyen-Orient et d'Asie du Sud-Est pour lever jusqu'à 100 milliards de dollars supplémentaires, dans le but de créer un fonds dédié aux entreprises exploitant les technologies de Prometheus. Ce qui distingue Prometheus de la plupart de ses concurrents, c'est son positionnement sur l'IA physique : des systèmes capables d'interagir directement avec des environnements industriels réels, dans des secteurs comme la fabrication, l'ingénierie aérospatiale ou la production de semi-conducteurs. Là où l'IA générative peine encore à démontrer un retour sur investissement immédiat pour les industriels, Prometheus parie sur une IA qui agit dans le monde tangible plutôt que de se limiter au traitement de données. Pour les entreprises manufacturières et les grandes industries, ce type de technologie représente un levier de transformation directe, potentiellement plus concret que les modèles conversationnels grand public. C'est précisément ce créneau qui justifie l'intérêt massif des investisseurs, malgré l'absence totale de revenus à ce stade. La montée en puissance de Project Prometheus s'inscrit dans une phase nouvelle de la course mondiale à l'IA, où les batailles ne se jouent plus uniquement sur les performances des modèles de langage, mais sur leur intégration dans l'économie réelle. Jeff Bezos, avec une fortune estimée à plus de 200 milliards de dollars et un réseau d'investisseurs mondial, dispose d'une capacité d'action hors norme pour imposer Prometheus dans ce segment. La stratégie rappelle les logiques d'intégration verticale bien connues dans la tech : contrôler à la fois la technologie fondamentale et l'écosystème d'entreprises qui l'exploitent. Bloomberg précise que le tour de table actuel reste ouvert et que ses modalités pourraient encore évoluer, signe que la compétition pour entrer au capital de la start-up reste vive. Dans un secteur où OpenAI, Anthropic et Google se disputent la couche logicielle, Prometheus tente de s'imposer sur la couche industrielle, un pari ambitieux mais cohérent avec la vision long terme de son fondateur.

UEL'orientation de Prometheus vers l'IA industrielle (fabrication, aérospatiale, semi-conducteurs) pourrait à terme concurrencer ou transformer des secteurs manufacturiers européens, mais aucun impact direct sur la France ou l'UE n'est identifié à ce stade.

💬 38 milliards pour une boîte sans un euro de revenu et moins d'un an d'existence, sur le papier ça crie bulle. Mais l'angle IA physique (fabrication, aérospatiale, semi-conducteurs) c'est vraiment pas le même jeu que la guerre des chatbots, et là Bezos arrive avec la patience et le réseau qu'il faut pour jouer long. C'est le genre de pari qui paraît absurde en 2026 et évident en 2030.

BusinessOpinion
1 source
Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise
19Le Big Data 

Cursor AI : une levée de 2 milliards de dollars pour transformer le codage en entreprise

Cursor AI, la start-up américaine spécialisée dans les agents de programmation assistée par intelligence artificielle, est en discussions avancées pour boucler un tour de table de 2 milliards de dollars qui porterait sa valorisation au-delà des 50 milliards. L'opération serait co-dirigée par Andreessen Horowitz, avec la participation de Nvidia, Thrive Capital, et d'autres investisseurs déjà présents au capital comme Accel, Coatue, DST Global et Google. Ce nouveau round intervient quelques mois seulement après une levée de 2,3 milliards de dollars annoncée en novembre 2025, qui valorisait alors l'entreprise à 29,3 milliards, elle-même précédée d'un tour de 900 millions de dollars en juin de la même année. En moins d'un an, Cursor AI aurait donc capté plus de 5 milliards de dollars de financement cumulé, un rythme rarissime même dans le secteur de l'IA. La start-up revendique par ailleurs plus d'un milliard de dollars de revenus annualisés et se présente comme le système qui génère aujourd'hui le plus de code au monde parmi les agents IA. Ce niveau de valorisation traduit une conviction forte des investisseurs : les outils de développement augmentés par l'IA sont en train de devenir une infrastructure critique pour les entreprises. Les agents de Cursor ne se contentent plus de suggérer des lignes de code, ils génèrent des fonctionnalités complètes, corrigent des erreurs, interagissent avec des bases de code complexes, et depuis février 2026, testent eux-mêmes leurs modifications tout en documentant leurs actions via vidéos, journaux détaillés et captures d'écran. Ces capacités de traçabilité répondent directement aux exigences des grandes organisations en matière de gouvernance et de conformité. Pour les équipes d'ingénierie, l'enjeu est concret : accélérer les cycles de livraison, réduire les coûts de développement, et réorienter les développeurs humains vers des tâches à plus forte valeur ajoutée. Cursor AI n'évolue plus dans un espace vide. Depuis que la start-up a défriché ce marché, Google, OpenAI et Anthropic ont lancé leurs propres solutions d'assistance au code, validant par là même la pertinence du créneau. Cette concurrence frontale avec des acteurs disposant de ressources quasi illimitées explique en partie la cadence effrénée des levées de fonds : il s'agit de consolider une avance technologique et commerciale avant que le marché ne se fragmente. La présence simultanée de fonds de capital-risque de premier rang et de géants industriels comme Nvidia ou Google au capital de Cursor signale que l'écosystème du développement logiciel entre dans une phase de restructuration profonde, où les plateformes d'IA ne sont plus de simples outils mais des partenaires de production à part entière.

UELa consolidation rapide du marché des agents de développement IA par des acteurs américains très capitalisés réduit l'espace pour l'émergence d'alternatives européennes compétitives dans ce segment.

BusinessOpinion
1 source
Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile
20Le Big Data 

Stellantis et Microsoft : un partenariat de 5 ans pour révolutionner l’IA automobile

Stellantis et Microsoft ont officialisé le 16 avril 2026 un partenariat stratégique de cinq ans destiné à accélérer la transformation numérique du constructeur automobile franco-italo-américain. L'accord prévoit le co-développement de plus de 100 cas d'usage concrets intégrant l'intelligence artificielle dans des domaines aussi variés que le développement produit, la validation, les tests, la maintenance prédictive et la relation client. Sur le plan infrastructure, Stellantis migre l'essentiel de son système informatique vers le cloud Azure de Microsoft, avec un objectif de réduction de 60 % de l'empreinte de ses centres de données d'ici 2029. Le groupe a également déployé 20 000 licences Microsoft 365 Copilot auprès de ses collaborateurs, accompagnées de programmes de formation pour ancrer l'IA dans les pratiques quotidiennes des équipes d'ingénierie, de production et de support. Ce partenariat aura des répercussions concrètes à plusieurs niveaux. Pour les équipes internes, l'IA permettra de détecter plus tôt les anomalies en production, de raccourcir les cycles de validation et d'accélérer la mise sur le marché de nouvelles fonctionnalités logicielles. Pour les clients, certains véhicules pourront suggérer des modes de conduite plus économes ou anticiper des besoins de maintenance avant même qu'une panne survienne. En matière de cybersécurité, Stellantis prévoit de renforcer son centre mondial de cyberdéfense en s'appuyant sur des analyses pilotées par l'IA, couvrant à la fois les systèmes informatiques internes, les véhicules connectés, les sites industriels et les services numériques, dans le but d'anticiper les menaces et de protéger les données clients. Ce rapprochement s'inscrit dans une dynamique de fond qui secoue l'ensemble de l'industrie automobile traditionnelle. Face à la montée en puissance des constructeurs chinois, structurellement plus agiles sur le logiciel et les données, les acteurs historiques comme Stellantis, Volkswagen ou Renault intensifient leurs alliances technologiques pour combler un retard accumulé depuis des années. Ned Curic, directeur de l'ingénierie et de la technologie de Stellantis, a explicitement présenté cette collaboration comme un levier pour « accélérer le déploiement de l'IA dans toute l'entreprise ». La dépendance croissante des véhicules modernes aux logiciels rend cette transformation à la fois urgente et risquée : plus une voiture est connectée, plus elle constitue une cible potentielle pour des cyberattaques, ce qui explique la place centrale accordée à la sécurité dans l'accord. Microsoft, de son côté, consolide ainsi sa position dans le secteur automobile, un marché stratégique où Azure et ses outils d'IA générative sont en concurrence directe avec Google Cloud et AWS.

UEStellantis, maison-mère de Peugeot, Citroën et DS, intègre l'IA dans ses opérations françaises et migre vers Azure, ce qui aura un impact direct sur ses dizaines de milliers de salariés en France et sur la compétitivité de la filière automobile hexagonale face aux constructeurs chinois.

BusinessActu
1 source
Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant
21FrenchWeb 

Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant

Sephora a annoncé fin mars à Las Vegas, lors de la conférence Shoptalk Spring, un partenariat stratégique avec OpenAI pour intégrer ChatGPT au cœur de son programme de fidélité Beauty Insider. Ce qui distingue cet accord de simples expérimentations marketing : l'enseigne confie à l'IA les données de ses membres, un actif considéré comme l'un des plus précieux de l'entreprise. Sephora inaugure ainsi ce que l'industrie commence à appeler le « shopping agentique », où l'IA ne se contente plus de répondre à des questions mais agit pour le compte de l'utilisateur. Pour les quelque 34 millions de membres Beauty Insider aux États-Unis, cela signifie potentiellement une expérience d'achat entièrement personnalisée, pilotée par un assistant capable d'analyser l'historique d'achats, les préférences de marques et les tendances beauté en temps réel. L'enjeu dépasse la simple recommandation produit : en laissant une IA accéder aux données comportementales de ses clients les plus fidèles, Sephora parie que la personnalisation de masse peut devenir un avantage concurrentiel durable face à la concurrence en ligne et aux plateformes comme Amazon. Ce partenariat s'inscrit dans une vague plus large de grands distributeurs qui cherchent à monétiser leurs données first-party à l'heure où les cookies tiers disparaissent. OpenAI, de son côté, accélère son virage vers les applications commerciales après avoir sécurisé des financements massifs, et le retail de luxe constitue un terrain d'expansion stratégique. La question qui reste ouverte est celle de la gouvernance : confier des données clients sensibles à un tiers comme OpenAI soulève des interrogations sur la souveraineté des données et la conformité au RGPD pour les opérations européennes de Sephora.

UESephora, entreprise française du groupe LVMH, confie des données clients sensibles à OpenAI, ce qui soulève des questions concrètes de conformité RGPD pour ses opérations européennes.

BusinessOpinion
1 source
☕️ OpenAI : trois départs successifs après l’arrêt de Sora
22Next INpact 

☕️ OpenAI : trois départs successifs après l’arrêt de Sora

Trois cadres d'OpenAI ont annoncé leur départ en l'espace de deux jours, les 17 et 18 avril 2026. Bill Peebles, responsable du projet Sora, a été le premier à quitter l'entreprise, quelques semaines après l'arrêt du générateur vidéo qu'il avait piloté. Dans un message posté sur X, il a salué la culture interne d'OpenAI, rappelant que son équipe avait réussi à produire de la vidéo haute définition 1080p multi-plans en seulement sept mois, malgré les doutes qui entouraient le projet dès juillet 2023. Le même jour, Kevin Weil, à la tête d'« OpenAI for Science », annonçait lui aussi son départ : son département, qui avait notamment lancé l'éditeur LaTeX Prism et le modèle GPT-Rosalind, est dissous et ses équipes redistribuées ailleurs dans l'organisation. Le lendemain, Srinivas Narayanan, directeur technique des applications B2B d'OpenAI, leur emboîtait le pas, évoquant les récents et prochains lancements produits comme signal que le moment était venu pour lui de passer la main. Ces départs simultanés de trois responsables de haut rang en quarante-huit heures constituent un signal fort sur l'état interne de l'entreprise. Ils touchent des pôles stratégiques très différents, la recherche vidéo, la science, et les applications professionnelles, ce qui suggère une recomposition organisationnelle profonde plutôt qu'une simple succession de décisions individuelles. Pour les clients enterprise et les partenaires institutionnels d'OpenAI, la dissolution d'équipes dédiées comme « OpenAI for Science » soulève des questions sur la continuité des projets en cours. Ces départs surviennent dans un contexte de réorganisation générale annoncée peu avant par OpenAI, à un moment particulièrement sensible : la société se prépare à une possible introduction en bourse en 2026. L'arrêt de Sora, produit phare du pôle vidéo, illustre les arbitrages douloureux que l'entreprise opère pour concentrer ses ressources sur ses axes les plus rentables. Dans un secteur où la guerre des talents est féroce, la perte simultanée de plusieurs figures internes pourrait aussi signaler des tensions sur la direction stratégique qu'OpenAI entend prendre dans la course à l'AGI.

UELa dissolution d'équipes comme 'OpenAI for Science' soulève des questions de continuité pour les partenaires institutionnels et clients enterprise européens d'OpenAI.

BusinessOpinion
1 source
Ce que xAI et OpenAI devraient acquérir ensuite
23The Information AI 

Ce que xAI et OpenAI devraient acquérir ensuite

Dans un contexte où les fusions et acquisitions s'accélèrent dans le secteur de l'intelligence artificielle, plusieurs opérations stratégiques semblent aujourd'hui logiques selon les observateurs de la Silicon Valley. La plus évidente concerne xAI, la société d'Elon Musk, et Cursor, l'éditeur de code assisté par IA. Les deux entreprises entretiennent déjà une relation commerciale : xAI a accepté de vendre de la capacité de calcul à Cursor, une ressource devenue si rare que les analystes de SemiAnalysis la comparent à « essayer de réserver des billets d'avion sur le dernier vol au départ ». Un rapprochement capitalistique donnerait à Cursor un accès privilégié aux stocks de puissance de calcul de xAI, tandis que cette dernière ferait son entrée sur le marché enterprise et renforcerait sa position dans la guerre des outils de développement assistés par IA. Deuxième scénario envisagé : une acquisition de Snap par OpenAI. Snap, en difficulté persistante malgré des restructurations successives et des suppressions de postes récurrentes, est dirigée par Evan Spiegel qui détient un contrôle absolu grâce à ses actions à droit de vote multiple. Pourtant, OpenAI vient de démontrer avec son rachat de TBPN qu'elle est capable de convaincre des fondateurs réticents à vendre. Enfin, du côté des médias, Vox Media, qui possède plus de dix marques dont New York Magazine, The Verge ou Vulture, serait en train de préparer une vente par morceaux. Jay Penske, actionnaire partiel de la maison mère, serait un acquéreur naturel pour Vulture, tandis que la mannequin et entrepreneuse Karli Kloss aurait manifesté son intérêt pour The Cut. Ces hypothèses illustrent une tension profonde qui remodèle l'écosystème technologique et médiatique. Pour xAI, absorber Cursor serait bien plus qu'une consolidation technique : ce serait un accès immédiat à une base d'utilisateurs développeurs et à des revenus enterprise que Grok seul ne génère pas encore. Pour OpenAI, racheter Snap représenterait une porte d'entrée dans le hardware grand public, une ambition que Sam Altman nourrit depuis longtemps face à Apple et Meta. Quant à Vox Media, la vente par actifs signalerait l'échec du modèle du « groupe média digital à grande échelle » qui semblait prometteur au milieu des années 2010. Ces mouvements potentiels s'inscrivent dans une dynamique plus large où les géants de l'IA cherchent à convertir leur avance en infrastructure en avantages commerciaux durables. La course au calcul, théorisée par SemiAnalysis, crée des dépendances structurelles qui rendent les alliances inévitables. Snap, de son côté, représente le symbole d'une génération de plateformes sociales qui n'ont jamais réussi à transformer leur popularité en rentabilité stable, avec une valorisation en chute libre malgré une audience de plusieurs centaines de millions d'utilisateurs. Si OpenAI venait à acquérir Snap, cela placerait directement la société de Sam Altman en concurrence frontale avec Meta sur le terrain du hardware et des lunettes connectées, un duel que Mark Zuckerberg, lui, semble avoir anticipé de longue date.

💬 xAI/Cursor, c'est la seule hypothèse qui tient vraiment : quand le compute devient la ressource rare, tu intègres en amont ou tu dépends de quelqu'un d'autre indéfiniment. Pour OpenAI/Snap, c'est surtout une façon de racheter une audience massive à prix cassé, en espérant que Sam Altman sait ce qu'il ferait avec des lunettes connectées face à Zuckerberg. Reste à voir si Spiegel cède.

BusinessOpinion
1 source
Le directeur financier d'Anthropic exerce son influence dans l'ombre
24The Information AI 

Le directeur financier d'Anthropic exerce son influence dans l'ombre

Krishna Rao, directeur financier d'Anthropic, s'est imposé comme l'une des figures les plus influentes de la startup en coulisses depuis son arrivée en 2024. Alors qu'Anthropic disposait déjà d'un accord exclusif avec Google pour ses besoins en cloud computing, Rao a rapidement plaidé pour une diversification des partenariats, ciblant plusieurs fournisseurs de puces et de cloud simultanément. Cette stratégie a été discutée notamment avec Byron Deeter, associé chez Bessemer Venture Partners, l'un des investisseurs d'Anthropic. Cette décision de multiplier les partenaires d'infrastructure représente un virage stratégique majeur pour Anthropic. Selon Deeter, c'est Rao qui a compris qu'Anthropic pouvait accélérer sa croissance bien plus vite en ne dépendant pas d'un seul fournisseur. Dans un secteur où l'accès aux GPU et à la puissance de calcul conditionne directement la vitesse de développement des modèles d'IA, diversifier ses sources d'approvisionnement est un avantage compétitif concret face à OpenAI ou Google DeepMind. Anthropic est une entreprise atypique, peuplée de chercheurs en sécurité de l'IA, d'un philosophe maison et d'une direction prête à affronter les plus grandes institutions. Dans ce contexte idéologique fort, Rao incarne le contrepoids pragmatique et financier, celui qui transforme les ambitions en infrastructure durable. Sa discrétion tranche avec le profil public de Dario Amodei, le PDG, mais son influence sur l'architecture commerciale et les alliances industrielles de l'entreprise semble déterminante pour sa trajectoire à long terme.

💬 Un CFO qui diversifie les fournisseurs GPU au lieu de rester sous perfusion Google exclusive, c'est exactement le genre de décision structurelle qui fait la différence à l'échelle. Bon, ça ne fait pas les grands discours sur la sécurité de l'IA, mais sans infrastructure solide, les ambitions de Dario Amodei restent du vent. Ce sont souvent les profils discrets comme Rao qui évitent les catastrophes opérationnelles.

BusinessOpinion
1 source
Le responsable de Sora chez OpenAI quitte l'entreprise
25The Verge AI 

Le responsable de Sora chez OpenAI quitte l'entreprise

Bill Peebles, le responsable de l'équipe Sora chez OpenAI, a annoncé vendredi 11 avril 2026 son départ de l'entreprise. Cette décision intervient quelques semaines seulement après qu'OpenAI a mis en retrait son outil de génération vidéo Sora, relégué au second plan dans la feuille de route de la société. Dans un message publié sur X, Peebles a remercié Sam Altman, Mark Chen, Aditya Ramesh et Jakub Pachocki pour avoir soutenu un environnement de recherche permettant d'explorer des idées éloignées du cœur de métier de l'entreprise. Ce départ illustre un tournant stratégique majeur chez OpenAI, qui cherche désormais à éliminer les "side quests", c'est-à-dire les projets jugés périphériques. La société concentre ses ressources sur le développement d'outils de coding et sur les usages enterprise, considérés comme plus rentables et plus directement alignés avec ses objectifs commerciaux à court terme. Pour les équipes dédiées à la recherche fondamentale ou aux formats créatifs comme la vidéo, ce recentrage signifie moins de budget, moins de visibilité et, pour certains, une raison de partir. OpenAI avait lancé Sora début 2024 avec un impact médiatique considérable, promettant une révolution dans la génération vidéo par IA. Mais face à la concurrence de Runway, Kling ou Veo de Google, et sous la pression des investisseurs exigeant une rentabilité accélérée, la priorité a glissé vers des produits à retour sur investissement plus immédiat. Le départ de Peebles s'inscrit dans une série de changements internes qui signalent qu'OpenAI, valorisé à plus de 300 milliards de dollars, entre dans une phase d'industrialisation au détriment de l'exploration.

BusinessOpinion
1 source
L'IA tient-elle ses promesses ? Transformer l'élan vers l'IA en valeur mesurable
26VentureBeat AI 

L'IA tient-elle ses promesses ? Transformer l'élan vers l'IA en valeur mesurable

Les grandes entreprises traversent aujourd'hui ce que Brian Gracely, directeur de la stratégie de portefeuille chez Red Hat, appelle le moment "Day 2" de l'intelligence artificielle : la phase où les pilotes cèdent la place à la production, et où les questions de coût, de gouvernance et de rentabilité deviennent plus complexes que la construction des systèmes eux-mêmes. Lors d'une session de l'AI Impact Tour de VentureBeat, Gracely a illustré cette réalité avec un exemple frappant : des clients qui détiennent 50 000 licences de Microsoft Copilot sans savoir précisément ce que leurs employés en tirent, tout en payant pour ce qu'il décrit comme "le calcul informatique le plus cher du monde, parce que ce sont des GPU". Après deux ou trois cycles budgétaires consacrés à l'IA générative, les directions d'entreprise ne demandent plus "peut-on construire quelque chose ?" mais "obtenons-nous ce pour quoi nous payons ?" Le problème central n'est pas seulement le coût brut de l'infrastructure GPU : c'est l'absence d'instrumentation permettant de relier les dépenses aux résultats concrets, rendant quasi impossible la justification des renouvellements de contrats à grande échelle. Cette prise de conscience provoque un changement stratégique profond dans la manière dont les entreprises envisagent leur rapport à l'IA. Le modèle dominant des deux dernières années, payer un fournisseur au token, au siège ou à l'appel API en lui déléguant toute l'infrastructure, est de plus en plus remis en question. Gracely résume cette évolution : plutôt que d'être purement "consommateur de tokens", certaines organisations cherchent à devenir "productrices de tokens", en évaluant quels usages justifient de posséder ou louer directement des GPU, et si les cas d'usage nécessitent vraiment les modèles les plus avancés ou si des modèles ouverts plus légers suffisent. Cette décision n'est pas binaire : elle dépend de la tolérance au risque, de la nature des charges de travail et de la maturité de chaque organisation. Le paradoxe auquel font face les responsables financiers est bien réel. Le PDG d'Anthropic, Dario Amodei, a estimé que les coûts d'inférence chutent d'environ 60 % par an, et l'émergence de modèles open source comme DeepSeek a considérablement élargi les alternatives stratégiques disponibles. Pourtant, la baisse du coût unitaire ne se traduit pas par une réduction des factures totales : l'usage s'accélère à un rythme qui compense largement les gains d'efficacité. C'est une manifestation du paradoxe de Jevons, principe économique selon lequel l'amélioration de l'efficacité d'une ressource tend à augmenter sa consommation globale plutôt qu'à la réduire. Une entreprise qui triple son utilisation de l'IA pendant que les coûts diminuent de moitié dépense encore davantage qu'avant. Pour les décideurs, cela signifie que la maturité de l'IA en entreprise passe désormais par une discipline opérationnelle rigoureuse, et non plus par l'enthousiasme des premières expérimentations.

BusinessOpinion
1 source
Les utilisateurs quittent-ils ChatGPT ? Ce que révèlent les chiffres
27Le Big Data 

Les utilisateurs quittent-ils ChatGPT ? Ce que révèlent les chiffres

Selon un rapport annuel de Similarweb publié en avril 2026, ChatGPT a perdu 20 points de part de marché en douze mois, passant de 77,43 % à 57 % du trafic généré par les outils d'intelligence artificielle générative. Dans le même temps, Gemini de Google a franchi la barre des 25 % d'audience, quadruplant quasiment son score en un an grâce à une intégration agressive dans l'écosystème Google, Gmail, Android, Chrome. Claude, le modèle d'Anthropic, a lui presque triplé sa part, atteignant 6,02 % contre 1,40 % un an plus tôt, avec une accélération particulièrement marquée sur les derniers mois. Des acteurs plus spécialisés comme DeepSeek et Perplexity restent sous la barre des 4 %, mais contribuent eux aussi à l'érosion du leadership d'OpenAI. Grok de xAI recule, et Microsoft Copilot peine à maintenir sa position. Ce rééquilibrage du marché signale la fin du monopole de fait qu'OpenAI exerçait depuis le lancement grand public de ChatGPT fin 2022. Les utilisateurs, plus matures et mieux informés, multiplient désormais les outils selon leurs besoins : Claude pour la qualité rédactionnelle et la nuance, Gemini pour son intégration native dans les services Google, Perplexity pour la recherche documentée. Cette diversification des usages complique la fidélisation pour OpenAI, dont la croissance en volume reste réelle mais dont la dynamique ralentit sensiblement. Pour les entreprises qui ont misé sur un seul fournisseur d'IA, le signal est clair : le marché devient multi-modèles, et les stratégies d'intégration pèsent autant que la performance brute des systèmes. Ce glissement s'inscrit dans une compétition qui s'est considérablement intensifiée depuis 2025. Google, longtemps critiqué pour une réponse tardive à l'essor de ChatGPT, a su transformer son avantage structurel en arme concurrentielle : des milliards d'utilisateurs déjà captifs de son écosystème représentent un levier de distribution qu'OpenAI ne peut pas répliquer. Anthropic, soutenu par des investissements massifs d'Amazon et Google, a quant à lui réussi à imposer Claude comme une référence sérieuse, notamment auprès des professionnels et des développeurs. La prochaine bataille se jouera sur les agents autonomes et l'intégration dans les outils de productivité du quotidien, un terrain où Google et Microsoft partent avec une longueur d'avance structurelle. OpenAI, de son côté, multiplie les annonces produit et tente d'élargir son offre au-delà du chatbot pour rester incontournable dans un marché qu'il a lui-même créé.

UELes entreprises et professionnels européens ayant misé sur un seul fournisseur IA doivent réévaluer leur stratégie d'intégration face à un marché désormais clairement multi-modèles.

BusinessOpinion
1 source
Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité
28The Verge AI 

Ronan Farrow : Sam Altman et son rapport «sans contraintes» à la vérité

Le journaliste d'investigation Ronan Farrow, connu notamment pour avoir révélé l'affaire Harvey Weinstein, a publié dans The New Yorker une enquête fleuve de plus de 17 000 mots sur Sam Altman, PDG d'OpenAI, co-écrite avec Andrew Marantz après dix-huit mois de reporting. Le texte constitue le récit le plus complet à ce jour de l'épisode de novembre 2023, lorsque le conseil d'administration d'OpenAI avait brutalement licencié Altman, officiellement pour manque de franchise, avant de le réintégrer quelques jours plus tard sous la pression des employés et des investisseurs. L'enquête plonge aussi dans la vie personnelle d'Altman, ses investissements, ses démarches pour attirer des capitaux en provenance du Moyen-Orient, et ses propres réflexions sur ses traits de caractère. Une source citée dans l'article résume la chose sans détour : Altman serait "unconstrained by the truth", c'est-à-dire affranchi de toute contrainte vis-à-vis de la vérité. Ce portrait compte parce qu'Altman n'est pas seulement le patron d'une startup : en quelques années, il a transformé un laboratoire de recherche à but non lucratif en une entreprise privée valorisée à près de mille milliards de dollars, faisant de lui le visage le plus visible de l'industrie de l'intelligence artificielle mondiale. La question de sa fiabilité dépasse donc largement le cadre d'une querelle interne. Farrow note que, au fil de ses dix-huit mois de travail, les interlocuteurs sont devenus nettement plus enclins à s'exprimer publiquement et nominalement sur la tendance d'Altman à "étirer la vérité", un signe que le climat autour d'OpenAI a changé, et que les inquiétudes se font de plus en plus entendre, y compris dans des cercles qui se taisaient jusqu'ici. OpenAI a été fondé en 2015 comme organisation à but non lucratif censée développer l'IA de façon sûre et ouverte, avant de pivoter vers un modèle hybride à profit plafonné, puis de lever des milliards auprès de Microsoft et d'autres grands investisseurs. La montée en puissance de ChatGPT depuis fin 2022 a propulsé Altman sur la scène mondiale, lui donnant une influence considérable sur les décideurs politiques, les régulateurs et les marchés financiers. C'est précisément cette centralité qui rend l'enquête de Farrow structurellement importante : quand un seul individu concentre autant de pouvoir sur une technologie aussi pervasive, la question de son rapport à la vérité cesse d'être anecdotique. Farrow lui-même affirme avoir perçu une évolution chez Altman au cours de leurs nombreux entretiens, sans pour autant que cela modifie son analyse de fond sur les dynamiques qui ont conduit à la crise de gouvernance de 2023.

UELa fiabilité de Sam Altman et la gouvernance d'OpenAI influencent directement les discussions réglementaires européennes, notamment la mise en œuvre de l'AI Act et les relations entre décideurs politiques de l'UE et la principale organisation IA mondiale.

BusinessOpinion
1 source
Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire
29The Information AI 

Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire

Google est en négociation avec le Département de la Défense américain pour un accord qui permettrait au Pentagone de déployer les modèles d'intelligence artificielle Gemini dans des environnements classifiés. L'information, révélée par deux personnes ayant une connaissance directe des discussions, indique que les deux parties envisagent un contrat autorisant l'utilisation de l'IA de Google pour l'ensemble des usages légaux au sein des forces armées américaines. Selon l'une de ces sources, Google aurait proposé d'inclure dans le contrat des clauses restrictives visant à empêcher que ses modèles soient utilisés pour de la surveillance de masse intérieure ou pour des systèmes d'armes autonomes, notamment le ciblage, sans supervision humaine "appropriée". Cet accord marquerait un tournant majeur dans la relation entre Google et le secteur militaire. L'entreprise deviendrait un contractant technologique significatif du Pentagone, avec un accès potentiel à des infrastructures classifiées, un niveau d'engagement rarement atteint dans l'industrie tech civile. Pour l'armée américaine, intégrer Gemini dans des environnements sécurisés ouvrirait la voie à des capacités d'analyse, de traitement du renseignement et de prise de décision assistée par IA à une échelle et une vitesse sans précédent. Les garde-fous proposés par Google, bien que symboliquement importants, restent formulés de façon vague, notamment autour de la notion de contrôle humain "approprié", ce qui laisse une marge d'interprétation considérable. Ce rapprochement s'inscrit dans un renversement de position spectaculaire pour Google. En 2018, face à une fronde interne massive de ses employés, l'entreprise avait abandonné le projet Maven, un contrat avec le Pentagone portant sur l'analyse d'images de drones par IA, et s'était engagée à ne pas développer d'IA à usage militaire offensif. Depuis, la concurrence acharnée avec Microsoft, qui fournit déjà des services cloud et d'IA à l'armée via Azure et ses partenariats avec OpenAI, ainsi que la pression des actionnaires ont poussé Google à reconsidérer cette posture. La course aux contrats gouvernementaux dans le domaine de l'IA est désormais un enjeu stratégique majeur pour l'ensemble des grandes entreprises technologiques américaines.

UECe rapprochement militaro-technologique américain pourrait accélérer les débats européens sur la souveraineté technologique et l'encadrement de l'IA dans la défense.

BusinessActu
1 source
L'IA d'entreprise comme couche d'exploitation
30MIT Technology Review 

L'IA d'entreprise comme couche d'exploitation

La vraie ligne de fracture dans l'IA d'entreprise n'est pas celle que l'on suit habituellement dans les médias. Pendant que le débat public se focalise sur les benchmarks des modèles fondateurs, GPT contre Gemini, scores de raisonnement, gains marginaux de performance, l'avantage décisif se joue ailleurs : dans la couche opérationnelle, c'est-à-dire l'ensemble formé par les logiciels de workflow, la capture de données, les boucles de rétroaction et la gouvernance qui s'intercale entre les modèles d'IA et le travail réel. Des acteurs comme OpenAI et Anthropic vendent l'intelligence comme un service : on a un problème, on appelle une API, on obtient une réponse. Cette intelligence est généraliste, largement sans mémoire d'une session à l'autre, et de plus en plus interchangeable. À l'opposé, les organisations établies ont la possibilité de traiter l'IA comme une couche opérationnelle permanente : chaque exception, chaque correction, chaque validation humaine devient un signal d'apprentissage, et l'intelligence s'améliore à mesure que la plateforme absorbe davantage de travail. Ce modèle inverse la relation traditionnelle entre humains et machines. Dans une organisation de services classique, les opérateurs utilisent des logiciels pour effectuer un travail d'expert : la technologie est le médium, le jugement humain est le produit. Une plateforme pensée nativement pour l'IA renverse cette logique : le système ingère un problème, applique la connaissance accumulée du domaine, exécute de manière autonome ce qu'il peut traiter avec une haute confiance, et renvoie vers des experts humains uniquement les sous-tâches qui requièrent un jugement que le système ne maîtrise pas encore. Cette inversion n'est pas qu'un simple redesign d'interface, elle exige une matière première que les startups ne peuvent pas fabriquer rapidement : des données opérationnelles propriétaires, une large base d'experts dont les décisions quotidiennes génèrent des signaux d'entraînement, et une connaissance tacite accumulée sur des années quant à la façon dont le travail complexe se fait réellement. C'est là où réside le véritable enjeu stratégique de la décennie. Le récit dominant affirme que les startups agiles vont surpasser les acteurs établis en construisant des systèmes AI-native from scratch. Si l'IA était avant tout un problème de modèles, cette thèse tiendrait. Mais dans beaucoup de secteurs d'entreprise, c'est un problème de systèmes, intégrations, permissions, évaluation, gestion du changement, où l'avantage revient à ceux qui sont déjà ancrés dans des workflows à fort volume et à forts enjeux. La société Ensemble illustre cette approche avec une stratégie de "distillation de connaissance" : transformer l'expertise tacite et périssable des meilleurs opérateurs en signaux réutilisables, puis réinjecter ces résultats dans les workflows pour que le système continue à progresser. Les ingrédients existent déjà chez les acteurs historiques ; la question est de savoir qui saura les convertir en avantage compétitif durable avant que la fenêtre ne se referme.

BusinessOpinion
1 source
NewBird AI : comment le virage technologique d’Allbirds a fait bondir son action de 600 %
31Le Big Data 

NewBird AI : comment le virage technologique d’Allbirds a fait bondir son action de 600 %

Le 15 avril 2026, Allbirds, fabricant américain de chaussures durables, a annoncé l'abandon total de son activité historique pour se repositionner sous le nom NewBird AI, avec pour nouvelle mission de fournir des infrastructures de calcul dédiées à l'intelligence artificielle. L'annonce a provoqué une envolée boursière spectaculaire : le titre a bondi jusqu'à 876 % en séance avant de clôturer à 16,99 dollars, soit une progression de 582 % en une seule journée depuis les 2,49 dollars du matin. Concrètement, l'entreprise a cédé l'ensemble de ses marques et actifs liés à la chaussure à American Exchange Group pour 39 millions de dollars, et a simultanément sécurisé une facilité de financement convertible de 50 millions de dollars auprès d'un investisseur institutionnel. Ces fonds serviront à acquérir des GPU haute performance et à construire une offre de type GPU-as-a-Service, c'est-à-dire la location de puissance de calcul à des entreprises souhaitant entraîner ou faire tourner des modèles d'IA. Ce pivot illustre de façon saisissante comment la pénurie mondiale de ressources de calcul est devenue un levier de création de valeur capable de transformer instantanément la perception d'une entreprise sur les marchés, même si celle-ci n'avait aucun lien historique avec la technologie. Pour les entreprises confrontées à des délais et des contraintes d'accès aux GPU chez les grands fournisseurs cloud, une offre alternative flexible représente une réponse concrète à un goulot d'étranglement structurel. NewBird AI ne cherche pas à concurrencer AWS, Google Cloud ou Azure frontalement, mais à occuper les interstices du marché : des clients qui ne peuvent pas obtenir de capacités de manière fiable ou rapide auprès des hyperscalers traditionnels. La proposition de valeur repose sur la disponibilité immédiate et des contrats de location à long terme. Allbirds avait été introduite en Bourse en novembre 2021 à 15 dollars l'action, levant près de 348 millions de dollars sur la promesse d'une marque de chaussures éco-responsables. Depuis, la trajectoire avait été régulièrement pénalisée par la baisse des ventes, des pertes croissantes et un recul d'image, ramenant le titre à moins de 3 dollars début 2026. Ce pivot radical s'inscrit dans une tendance plus large où des sociétés cotées en difficulté cherchent à capter l'enthousiasme des investisseurs pour l'IA en procédant à des rebranding agressifs, parfois sans historique technique ni infrastructure préexistante. La capacité de NewBird AI à réellement déployer des actifs GPU compétitifs et à attirer une clientèle stable face à des acteurs déjà établis dans le GPUaaS, comme CoreWeave, reste à démontrer dans les prochains trimestres.

BusinessOpinion
1 source
Allbirds lâche le marché de la basket pour devenir une entreprise IA
32Frandroid 

Allbirds lâche le marché de la basket pour devenir une entreprise IA

Allbirds, la marque américaine de chaussures connue pour ses sneakers en laine mérinos et ses fibres d'eucalyptus, a annoncé un pivot radical vers l'intelligence artificielle, abandonnant ainsi son cœur de métier historique dans la fabrication de chaussures durables. L'annonce a provoqué une hausse spectaculaire du cours de l'action, qui a bondi de près de 600% en réaction à cette réorientation stratégique majeure. Ce virage illustre une tendance de fond : des entreprises en difficulté sur leurs marchés d'origine se repositionnent dans l'IA pour séduire les investisseurs et relancer leur valorisation boursière. Pour Allbirds, qui avait vu son action s'effondrer de plus de 95% depuis son introduction en bourse en 2021, ce changement de cap représente une bouée de sauvetage financière. La réaction des marchés montre à quel point le simple label "IA" suffit aujourd'hui à transformer la perception des investisseurs, indépendamment des fondamentaux opérationnels. Fondée en 2016 sur la promesse d'une mode durable et éthique, Allbirds avait incarné pendant quelques années l'idéal d'une consommation responsable, avant de se heurter à une concurrence accrue et à un contexte économique défavorable pour les marques premium. Ce repositionnement s'inscrit dans un phénomène plus large de "pivot IA" observé dans de nombreux secteurs, où des entreprises en reconversion cherchent à capitaliser sur l'engouement autour de l'intelligence artificielle. La question qui demeure ouverte est celle de la substance réelle de cette transformation et de sa viabilité à long terme.

BusinessOpinion
1 source
Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »
33La Tribune 

Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »

Neil Zeghidour, directeur général de Gradium, a pris la parole lors de la conférence Tech For Future pour exposer la vision de sa société, récemment implantée dans l'écosystème parisien de l'intelligence artificielle. Sa mission : constituer une équipe de recherche d'élite pour développer des modèles vocaux capables de rivaliser avec les grandes plateformes américaines. Pour attirer ces profils rares, il revendique une approche singulière, comparant la gestion de ses chercheurs en IA à celle de footballeurs professionnels, des talents à recruter, fidéliser et placer dans les meilleures conditions pour performer. L'enjeu derrière cette métaphore est concret : le marché des chercheurs spécialisés en IA est d'une compétition féroce, avec une poignée d'experts mondiaux se disputés par des géants comme Google, OpenAI ou Meta, capables d'offrir des compensations considérables. Gradium parie sur la voix comme vecteur de différenciation, un segment en croissance exponentielle porté par les assistants conversationnels, l'accessibilité et les interfaces multimodales. Construire des modèles vocaux performants en Europe représente un défi technique autant qu'économique, mais aussi une opportunité stratégique face à la dépendance actuelle aux infrastructures et modèles américains. La démarche de Gradium s'inscrit dans une dynamique plus large : celle de la souveraineté numérique européenne en matière d'IA. Zeghidour insiste sur la nécessité d'entraîner des modèles localement, sur des données et des infrastructures européennes, pour ne pas rester tributaires des choix des acteurs américains. Dans un contexte où la régulation européenne (AI Act) pousse les entreprises à davantage de transparence et de contrôle, des acteurs comme Gradium tentent de transformer cette contrainte en avantage compétitif.

UEGradium, startup française basée à Paris, développe des modèles vocaux sur infrastructures européennes pour réduire la dépendance aux plateformes américaines, s'appuyant sur l'AI Act comme levier de différenciation compétitive.

BusinessOpinion
1 source
Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA
34Next INpact 

Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

Allbirds, le fabricant californien de chaussures fondé en 2015 et célèbre pour ses baskets Wool Runner en laine mérinos et son image écoresponsable, a annoncé un pivot radical : l'entreprise abandonne la chaussure pour devenir fournisseur d'infrastructures d'intelligence artificielle sous le nom NewBird AI. La société proposera des services de type "GPU-as-a-Service", c'est-à-dire de la location de puissance de calcul à des entreprises ayant besoin de ressources pour entraîner ou déployer des modèles d'IA. Un accord de financement de 50 millions de dollars avec un investisseur institutionnel non divulgué a été signé, avec une finalisation attendue pour le deuxième trimestre 2026. L'annonce a provoqué une explosion boursière de plus de 700 % en une seule séance à Wall Street, propulsant l'action Allbirds dans la catégorie des "memestocks". Ce pivot illustre à la fois le désespoir d'une entreprise en faillite progressive et la fièvre spéculative qui entoure l'IA. Allbirds, qui avait culminé à une capitalisation de 4 milliards de dollars lors de son introduction en Bourse en 2021, n'est plus que l'ombre d'elle-même : ses ventes ont reculé dès 2022, ses magasins ont fermé un à un, et fin février 2026 il ne restait plus que quatre boutiques aux États-Unis et au Royaume-Uni. L'entreprise a finalement cédé l'ensemble de ses actifs de chaussures à American Exchange Group pour 39 millions de dollars, soit une fraction infime de sa valeur passée. La coquille juridique restante a alors cherché une nouvelle raison d'exister. Le changement de cap implique également l'abandon de ses engagements environnementaux : les actionnaires devront voter pour supprimer toute référence à un objectif d'intérêt public en matière de protection de l'environnement, difficilement compatible avec l'exploitation énergivore de centres de données GPU. Le parcours d'Allbirds résume une décennie de promesses et de déconvenues dans la consommation responsable. Après une mutinerie des actionnaires en mai 2023 contre la stratégie de l'entreprise, une plainte finalement rejetée en février 2026, la confiance était brisée. Le pivot vers l'IA suit un schéma déjà vu avec certaines sociétés de minage de bitcoins qui reconvertissent leurs infrastructures pour profiter de la demande explosive en calcul GPU. Mais 50 millions de dollars reste une somme dérisoire dans un secteur où les grands acteurs investissent des dizaines de milliards. La hausse de 700 % du cours de Bourse, déconnectée de tout fondamental, ressemble davantage à un effet d'annonce spéculatif qu'à un vrai projet industriel. Si NewBird AI ne lève pas rapidement des capitaux bien plus importants, ce rebond boursier risque de n'être qu'une parenthèse avant une chute définitive.

BusinessOpinion
1 source
Les bots d'achat IA multiplient remboursements et risques, selon un dirigeant d'Adyen
35The Information AI 

Les bots d'achat IA multiplient remboursements et risques, selon un dirigeant d'Adyen

Les robots d'achat alimentés par l'intelligence artificielle génèrent un taux anormalement élevé de remboursements et de contestations de paiement par carte bancaire. C'est ce qu'indique Carlo Bruno, vice-président produit chez Adyen, l'un des principaux processeurs de paiement au monde. Ce constat met en lumière les risques financiers concrets liés au commerce dit "agentique", où des IA effectuent des achats au nom des consommateurs. Avant que ces agents puissent gérer des transactions en ligne de manière fiable, les entreprises devront trouver des mécanismes pour absorber ce risque accru. La multiplication des litiges pourrait d'ailleurs inciter les processeurs de paiement à envisager des frais plus élevés pour les marchands sur les transactions initiées par des IA, ce qui renchérirait mécaniquement le coût du commerce automatisé pour les vendeurs en ligne. Selon Bruno, le secteur attend un "big bang" qui ne viendra pas : l'adoption de l'IA dans les achats se fera de manière progressive, et non par un basculement soudain où des bots transacteraient massivement pour les consommateurs. Cette prudence reflète un enjeu structurel plus large : les infrastructures de paiement ont été conçues pour des humains, et leur adaptation à des agents autonomes soulève des questions de responsabilité, de fraude et de consentement que ni les plateformes ni les régulateurs n'ont encore pleinement résolues.

UEAdyen étant un acteur néerlandais central dans les paiements européens, les risques de remboursements et surcoûts liés aux agents IA concernent directement les marchands e-commerce français et européens.

BusinessOpinion
1 source
L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups
36The Information AI 

L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups

Le gouvernement chinois a ouvert une enquête sur la vente de la startup d'agents IA Manus à Meta Platforms, provoquant une onde de choc dans l'écosystème des startups d'intelligence artificielle en Chine. Cette investigation, dont les détails précis restent flous, cible une transaction qui représentait pour de nombreux fondateurs un débouché naturel : être rachetés par un géant technologique américain. Hank Yuan, co-fondateur d'une nouvelle startup basée à Shenzhen qui développe un agent IA pour le marché mondial, résume le sentiment général : « Tous les fondateurs de startups IA que je connais suivent l'affaire Manus de très près. » L'impact est immédiat et concret. Plusieurs startups envisagent désormais de déplacer tout ou partie de leurs opérations vers Singapour, ou de quitter la Chine entièrement. Le choix du financement devient aussi une question stratégique brûlante : lever des fonds en yuan chinois ou en dollars américains implique désormais des conséquences géopolitiques directes sur la capacité à vendre à l'international ou à attirer des investisseurs américains. Comme le formule Yuan, les fondateurs doivent « réfléchir encore plus soigneusement aux marchés visés, à la structure juridique de leur entreprise et à la devise dans laquelle lever des fonds ». Les startups dont l'ambition se limite au marché chinois, financées par du capital-risque local ou asiatique, sont moins exposées à ces tensions. Cette affaire s'inscrit dans une rivalité technologique sino-américaine de plus en plus intense, où les acquisitions transfrontalières d'entreprises IA deviennent des enjeux de souveraineté nationale. Pékin surveille de près les transferts de technologie vers des entreprises américaines, notamment dans le domaine de l'IA agentique, considéré comme stratégique. Pour les fondateurs chinois qui cherchent une sortie vers les grands groupes de la Silicon Valley, la fenêtre se resserre. Singapour, hub neutre entre les deux blocs, s'impose comme la destination de repli privilégiée pour ceux qui veulent préserver à la fois un accès aux marchés occidentaux et une base opérationnelle en Asie.

UELes tensions géopolitiques sino-américaines autour des acquisitions d'IA pourraient inciter l'UE à renforcer sa propre surveillance des transferts technologiques transfrontaliers impliquant des startups chinoises.

BusinessOpinion
1 source
OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires
37The Information AI 

OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires

OpenAI prépare une évolution significative de son modèle publicitaire pour ChatGPT. Selon un dirigeant d'agence ayant échangé directement avec des employés d'OpenAI, la société envisage d'adopter une tarification au clic (CPC) pour certaines publicités, plutôt que de facturer uniquement à l'affichage. En parallèle, OpenAI travaillerait sur des formats dits "à la performance", conçus pour inciter les utilisateurs à réaliser une action précise : effectuer un achat, télécharger une application ou s'inscrire à un service. Aucun calendrier précis n'a encore été communiqué pour ces nouveaux formats. Ces changements représentent un signal fort pour l'industrie publicitaire. Passer du modèle CPM (coût pour mille impressions) au CPC, c'est adopter le standard qui a fait la puissance de Google et Meta : on ne paie que pour les résultats mesurables. Pour les annonceurs, cela réduit le risque financier et facilite la justification des budgets. Pour OpenAI, c'est un moyen d'attirer des marques habituées aux campagnes à la performance sur des plateformes comme Google Ads ou Meta Ads, en leur offrant un environnement familier. OpenAI cherche ainsi à transformer ChatGPT en surface publicitaire crédible face aux géants du secteur, dans un contexte où la société doit financer des coûts d'infrastructure colossaux et afficher une trajectoire de revenus convaincante pour ses investisseurs. Google et Meta dominent ensemble plus de 50 % du marché mondial de la publicité digitale. OpenAI, fort de ses centaines de millions d'utilisateurs actifs, mise sur l'intention forte exprimée dans les requêtes conversationnelles pour séduire les annonceurs avec une audience qualifiée et engagée.

UELes agences et annonceurs européens pourraient bientôt intégrer ChatGPT dans leurs plans media avec des formats CPC familiers, redistribuant une part des budgets actuellement alloués à Google et Meta.

BusinessActu
1 source
Traza lève 2,1 millions de dollars auprès de Base10 pour automatiser les processus d'approvisionnement par IA
38VentureBeat AI 

Traza lève 2,1 millions de dollars auprès de Base10 pour automatiser les processus d'approvisionnement par IA

Traza, une startup new-yorkaise fondée récemment, a annoncé la clôture d'un tour de table pré-seed de 2,1 millions de dollars mené par Base10 Partners, avec la participation de Kfund, des scouts d'a16z, Clara Ventures, Masia Ventures, et plusieurs business angels dont Pepe Agell, l'homme qui avait porté Chartboost à 700 millions d'utilisateurs mensuels avant sa rachat par Zynga. L'entreprise développe des agents IA capables d'automatiser entièrement les processus d'approvisionnement en entreprise : envoi de demandes de devis, suivi des commandes, communications fournisseurs, traitement des factures, le tout sans supervision humaine continue. Selon ses premières données de déploiement, Traza revendique une réduction de 70 % du temps humain consacré aux tâches d'achat, et des cycles d'approvisionnement trois fois plus rapides que les processus manuels. L'enjeu est considérable. Le marché des logiciels de procurement dépasse déjà 8 milliards de dollars et croît d'environ 10 % par an, mais le vrai gisement de valeur se trouve ailleurs : dans les pertes silencieuses qui surviennent après la signature des contrats. Une étude de World Commerce & Contracting et Ironclad estime que les entreprises perdent en moyenne 11 % de la valeur totale de leurs contrats une fois ceux-ci signés, un phénomène baptisé "value leakage post-signature". Pour une grande entreprise avec 500 millions de dollars de dépenses contractualisées annuelles, cela représente 55 millions qui s'évaporent chaque année, non pas à cause de mauvaises négociations, mais faute de suivi opérationnel. La majorité des entreprises ne gèrent activement que leurs 20 % de fournisseurs principaux ; les 80 % restants sont largement laissés à l'abandon. Le secteur du procurement n'a pas manqué de solutions logicielles ces dernières années, SAP Ariba, Coupa, Zip, Fairmarkit ou encore Tonkean ont tous intégré des couches d'IA à leurs plateformes. Mais ces outils sont restés des copilotes : ils analysent, suggèrent, alertent, sans jamais agir. Traza représente un changement de posture, passant du conseil à l'exécution autonome. Le PDG et cofondateur Silvestre Jara Montes positionne explicitement sa startup dans la "couche opérationnelle" du contrat, là où la valeur se perd le plus concrètement. Avec un financement modeste mais des investisseurs emblématiques de l'écosystème IA, Traza entre sur un marché où les grands éditeurs ERP ont historiquement tardé à innover, et où la promesse des agents autonomes pourrait trouver son premier cas d'usage industriel à grande échelle.

BusinessOpinion
1 source
OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?
39Le Big Data 

OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?

OpenAI a annoncé le 13 avril 2026 l'acquisition de Hiro Finance, une startup spécialisée dans la gestion financière personnalisée par intelligence artificielle. Fondée il y a seulement cinq mois par Ethan Bloch, Hiro avait développé une application capable de gérer plus d'un milliard de dollars d'actifs pour ses utilisateurs, en se positionnant comme un "CFO personnel" alimenté par l'IA. Le calendrier de fermeture est serré : l'application cesse d'accepter de nouveaux inscrits immédiatement, s'arrête définitivement le 20 avril, et les données utilisateurs seront supprimées le 13 mai 2026. Le fondateur, Ethan Bloch, n'est pas un inconnu du secteur : il avait déjà cédé Digit, une application d'épargne automatisée, pour environ 230 millions de dollars. OpenAI a confirmé que l'équipe de Hiro rejoindra ses rangs pour poursuivre sa vision à plus grande échelle, en s'appuyant sur l'infrastructure et la distribution de ChatGPT. Cette acquisition signale une offensive sérieuse d'OpenAI sur le marché de la finance personnelle, un secteur à haute valeur et haute sensibilité. En intégrant l'expertise de Hiro, notamment sa technologie de vérification mathématique des recommandations financières, OpenAI s'attaque directement à l'un des talons d'Achille des modèles génératifs : leur tendance aux erreurs chiffrées. Pour des millions d'utilisateurs de ChatGPT, cela pourrait se traduire concrètement par des fonctionnalités d'analyse de dépenses, d'optimisation d'épargne ou de conseil en investissement directement intégrées à l'interface. Pour les entreprises, les perspectives incluent des outils d'aide à la décision financière automatisés et personnalisés. C'est un mouvement qui menace directement les fintechs établies, les robo-advisors et même certaines banques traditionnelles qui investissent massivement dans leurs propres assistants IA. Cette opération s'inscrit dans une stratégie d'acquisitions ciblées qu'OpenAI déploie depuis plusieurs mois, préférant absorber des équipes expertes plutôt que de développer des compétences sensibles en interne. Le rachat récent de Promptfoo, outil open source utilisé par plus de 125 000 développeurs pour tester des agents IA, illustre la même logique : renforcer la fiabilité sur des cas d'usage critiques. La finance coche toutes ces cases. En Europe cependant, la trajectoire pourrait être plus complexe : depuis février 2025, l'AI Act classe les systèmes d'IA utilisés pour évaluer la solvabilité ou orienter des décisions financières comme "à haut risque", imposant audits de conformité, transparence algorithmique et supervision humaine obligatoire. ChatGPT Health reste toujours indisponible en France ; un "ChatGPT Finance" pourrait connaître le même sort. Pour les fintechs européennes, la question n'est plus de savoir si OpenAI entrera sur leur marché, mais à quelle vitesse et avec quelles contraintes réglementaires.

UEL'AI Act classe les systèmes d'IA d'évaluation financière comme 'à haut risque', ce qui pourrait bloquer un éventuel ChatGPT Finance en Europe, comme cela a été le cas pour ChatGPT Health en France.

BusinessOpinion
1 source
Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA
40The Information AI 

Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA

Anthropic a discrètement modifié son modèle de facturation pour les entreprises clientes de Claude, abandonnant une tarification forfaitaire au profit d'un système basé sur le volume réel d'utilisation de l'IA. Ce changement, qui n'avait pas été annoncé publiquement, signifie concrètement que les organisations dont les salariés sont des utilisateurs intensifs des outils Claude paieront désormais significativement plus cher. La décision a été mise en place au cours des dernières semaines et vise directement les clients enterprise. Cette révision tarifaire reflète la pression croissante que fait peser la popularité explosive des produits de codage assisté et d'agents IA d'Anthropic sur ses infrastructures de calcul. Plus les utilisateurs adoptent ces fonctionnalités avancées, plus le coût de traitement augmente côté serveur. En répercutant ces coûts sur les clients en fonction de leur consommation réelle, Anthropic cherche à préserver ses marges dans un contexte où la demande dépasse les prévisions initiales et où les ressources GPU restent rares et coûteuses. Ce virage intervient dans un secteur confronté à ce que les professionnels appellent un "compute crunch", une tension généralisée sur les capacités de calcul disponibles pour faire tourner des modèles d'IA de grande taille. OpenAI, Google et d'autres acteurs font face aux mêmes contraintes. La décision d'Anthropic pourrait inaugurer une tendance plus large : la fin des abonnements IA à prix fixe pour les entreprises, remplacés par des modèles à la consommation calqués sur ceux du cloud computing traditionnel.

UELes entreprises françaises et européennes abonnées à Claude Enterprise devront réévaluer leur budget IA, leurs coûts pouvant augmenter significativement selon l'intensité d'utilisation de leurs salariés.

BusinessActu
1 source
Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne
41VentureBeat AI 

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne

Un post publié le 13 avril sur X par Steve Yegge, ancien ingénieur Google reconverti en directeur de l'ingénierie chez Sourcegraph, a déclenché une vive polémique dans la Silicon Valley. Yegge y relayait les propos d'un ami, ingénieur actuel chez Google, selon lesquels l'adoption interne de l'IA chez Google serait bien plus banale que ce que l'entreprise laisse entendre. Selon cette source anonyme, les équipes de Google suivraient une distribution classique : 20 % de refractaires à l'IA, 60 % d'utilisateurs intermédiaires cantonnés aux assistants de code basiques, et seulement 20 % d'ingénieurs véritablement engagés dans des workflows agentiques avancés. Le post a rapidement enflammé les réseaux, atteignant 4 500 likes, 458 commentaires et 1,9 million de vues en moins de 24 heures. L'ami en question aurait également affirmé que certains Googlers ne pouvaient pas utiliser Claude Code d'Anthropic, perçu en interne comme "l'ennemi", et que Gemini n'était pas encore à la hauteur pour les cas d'usage les plus avancés. La réaction du côté de Google a été immédiate et tranchante. Demis Hassabis, cofondateur et PDG de Google DeepMind, a répondu directement à Yegge : "Dis à ton ami de faire un vrai travail plutôt que de propager des absurdités. Ce post est complètement faux, du pur clickbait." Addy Osmani, directeur chez Google Cloud AI, a livré une réfutation plus détaillée, affirmant que "plus de 40 000 ingénieurs utilisent des outils de codage agentiques chaque semaine" et que les équipes ont accès à des modèles personnalisés, des CLIs et des MCPs maison. Il a précisé que les Googlers peuvent même utiliser les modèles d'Anthropic via Vertex AI, concluant que "Google est tout sauf dans la moyenne." L'ingénieure Jaana Dogan a abondé dans ce sens, décrivant un usage quasi continu des outils IA dans son environnement quotidien. L'écho considérable de ce débat s'explique en grande partie par le profil de Yegge : avec treize ans chez Google, des passages chez Amazon et Grab, il s'est construit au fil des années une réputation d'insider-outsider au franc-parler, dont les analyses circulent largement dans les milieux tech. Un mémo interne qu'il avait rédigé chez Google en 2011 avait fuité et fait le tour des médias spécialisés, lui conférant un statut particulier. La polémique s'inscrit dans un contexte plus large : alors que les grandes entreprises tech rivalisent de communication autour de leur adoption de l'IA, la question de ce qui se passe réellement derrière les portes devient un enjeu de crédibilité. Pour Google, dont Gemini est à la fois un produit stratégique et un outil interne, toute suggestion d'un usage tiède en interne touche directement à la cohérence de son discours public.

BusinessOpinion
1 source
L'énigme de l'explosion des startups d'annotation de données
42The Information AI 

L'énigme de l'explosion des startups d'annotation de données

Le secteur des startups spécialisées dans l'annotation de données et les environnements d'apprentissage par renforcement connaît une croissance spectaculaire, tant en chiffre d'affaires qu'en valorisation. Ces entreprises recrutent des experts en médecine, droit et ingénierie logicielle pour produire des données d'entraînement destinées aux grands modèles d'IA, allant jusqu'à recréer des copies fictives d'applications comme Salesforce ou Excel. Leurs contrats avec les grands laboratoires d'IA varient considérablement : des équipes individuelles ou des chercheurs négocient directement leurs propres accords, avec des montants allant de quelques centaines de milliers à plusieurs millions de dollars. Ce modèle permet à ces startups d'atteindre rapidement 10 millions de dollars de revenus annualisés en partant de zéro. Cette dynamique illustre à quel point les grands labs d'IA dépendent encore massivement de données humaines de haute qualité pour entraîner leurs modèles, malgré les promesses d'automatisation. Des acteurs comme Anthropic ont multiplié les partenariats avec différentes startups, tandis qu'OpenAI a opté pour une approche centralisée avec une équipe dédiée gérant les relations fournisseurs. Pour les professionnels recrutés, médecins ou juristes, ces missions représentent une source de revenus complémentaires significative, tandis que les startups bénéficient d'une croissance rapide sans avoir besoin de lourds investissements technologiques initiaux. Pourtant, le secteur présente une fragilité structurelle majeure : ces entreprises ne disposent d'aucun avantage concurrentiel durable. Leur modèle repose sur des contrats courts et fragmentés, sans fidélisation forte côté clients. La fragmentation même du marché, où chaque chercheur peut choisir son fournisseur, expose ces startups à une concurrence féroce et à une instabilité contractuelle chronique. À mesure que les techniques d'entraînement synthétique et d'auto-amélioration des modèles progressent, la fenêtre d'opportunité pour ces acteurs pourrait se refermer aussi rapidement qu'elle s'est ouverte, soulevant des questions sur leur capacité à pivoter ou à consolider leurs positions avant que la demande ne s'érode.

UELes professionnels européens qualifiés (médecins, juristes, ingénieurs) pourraient accéder à ces contrats d'annotation comme source de revenus complémentaires, mais le marché est structuré autour de laboratoires américains sans ancrage réglementaire ou économique particulier en France ou en UE.

BusinessOpinion
1 source
OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
43Le Big Data 

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ». Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco. La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

UELes entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

BusinessOpinion
1 source
Scotiabank se prépare à son avenir avec l'IA
44AI News 

Scotiabank se prépare à son avenir avec l'IA

La banque canadienne Scotiabank a lancé Scotia Intelligence, un cadre unifié pour ses opérations de données et d'intelligence artificielle. Ce dispositif regroupe en une seule plateforme les environnements de calcul, les outils de gouvernance et les mécanismes de sécurité déjà en place au sein de l'établissement. Son volet opérationnel, Scotia Navigator, permet aux équipes internes, notamment celles en contact avec les clients, de construire et déployer leurs propres assistants IA dans le respect des règles de conformité de la banque. Les résultats annoncés sont concrets : les centres d'appels traitent désormais plus de 40 % des requêtes clients via l'IA, environ 90 % des courriels commerciaux entrants sont automatiquement redirigés, réduisant la charge manuelle de 70 %. Dans l'application mobile, des suggestions de paiement prédictives aident les clients à gérer leurs factures récurrentes et leurs virements. La banque a également publié un document sur l'éthique des données, qu'elle présente comme unique au Canada. L'enjeu dépasse la simple modernisation informatique : il s'agit de déployer l'IA à l'échelle d'un grand groupe financier sans créer de risques opérationnels ou réglementaires supplémentaires. Pour les équipes techniques, l'automatisation de la génération de code s'accompagne de contrôles de sécurité et d'auditabilité imposés par l'environnement réglementaire bancaire. Pour les employés, chaque usage de l'IA est soumis à une revue interne fondée sur des critères d'équité, de transparence et de responsabilité avant tout déploiement. Une formation obligatoire et des attestations annuelles complètent le dispositif. Tim Clark, directeur des systèmes d'information du groupe, souligne que l'objectif est de permettre aux collaborateurs d'utiliser la technologie avec confiance, tandis que Phil Thomas, directeur de la stratégie, y voit un levier pour recentrer les équipes sur des tâches à plus forte valeur ajoutée. Scotiabank s'inscrit dans une tendance lourde du secteur financier mondial, où les grandes banques cherchent à industrialiser l'IA tout en répondant aux exigences croissantes des régulateurs. La particularité de l'approche canadienne réside dans la formalisation publique de la gouvernance, une posture que peu d'établissements ont adoptée avant d'y être contraints. La banque reconnaît elle-même que l'architecture précise, les coûts, la stratégie de modèles et les benchmarks externes n'ont pas été divulgués, ce qui rend le retour sur investissement global difficile à évaluer. Scotiabank envisage néanmoins d'étendre le dispositif à des agents autonomes pour la recherche et l'analyse, avec des capacités décrites comme "plus autonomes, contextuelles et orientées vers l'action". Si les gains actuels se confirment, la banque devrait accélérer ce déploiement dans l'ensemble de ses métiers.

BusinessOpinion
1 source
Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?
45Le Big Data 

Le duel Anthropic-OpenAI s’accélère, quel impact pour les investisseurs en 2026 ?

Anthropic a franchi le seuil des 30 milliards de dollars de revenus annualisés en avril 2026, dépassant ainsi OpenAI qui affiche environ 24 à 25 milliards selon les dernières estimations. Cette progression fulgurante repose en grande partie sur Claude Code, l'outil d'agent de codage développé par la startup, qui lui a permis de capter près d'un tiers des clients entreprise américains en mars 2026. En seulement quelques mois, Anthropic est passé de 9 milliards de dollars de revenus annualisés fin 2025 à plus de 30 milliards, soit une croissance de plus de 230 % en moins d'un an. Les deux entreprises, dont les revenus combinés dépassent désormais 50 milliards de dollars annualisés, préparent toutes deux une entrée en bourse prévue pour le second semestre 2026, ce qui en fait les deux IPO technologiques les plus attendues du moment. Ce duel redessine les priorités de tout le secteur. La clé de la croissance d'Anthropic réside dans sa concentration sur les usages professionnels, qui génèrent une consommation de tokens bien plus élevée que les applications grand public. Un nombre restreint d'entreprises clientes peut ainsi produire davantage de revenus qu'une large base d'utilisateurs occasionnels. OpenAI, longtemps porté par le succès massif de ChatGPT, ajuste désormais sa stratégie en réponse : l'entreprise met l'accent sur Codex et ses outils orientés développeurs, cherchant à maximiser la valeur générée par utilisateur plutôt que le volume d'adoption. Pour les investisseurs, cela signifie que la rentabilité par usage prime désormais sur la popularité brute, un changement de paradigme qui redéfinit les critères de valorisation dans l'ensemble de l'industrie. La rivalité entre les deux acteurs dépasse cependant le seul terrain commercial. Selon des analyses relayées par le Wall Street Journal, OpenAI aurait alerté ses propres investisseurs sur la dynamique concurrentielle d'Anthropic, signe d'une tension croissante entre les deux laboratoires. Cette guerre d'influence a déjà eu des répercussions sur les marchés : la montée en puissance d'Anthropic aurait contribué à une chute de près de 1 000 milliards de dollars de valorisation dans certains segments logiciels en février 2026. Les comparaisons financières directes restent toutefois complexes, des investisseurs comme ceux de Khosla Ventures soulignant que les méthodes comptables des deux entreprises divergent, notamment sur le traitement des commissions versées aux fournisseurs cloud. Alors que les deux IPO approchent, les capitaux disponibles risquent de se concentrer sur ces deux pôles dominants, laissant moins d'espace pour le reste de l'écosystème IA.

UELes deux IPO prévues au second semestre 2026 risquent de concentrer les capitaux disponibles autour d'Anthropic et OpenAI, réduisant les opportunités de financement pour les startups IA européennes.

💬 C'est Claude Code qui a renversé la table, pas une nouvelle version de modèle ou un lancement en fanfare. Des clients enterprise qui font tourner des agents toute la journée génèrent des revenus qu'une base de millions d'abonnés à 20 euros ne peut pas suivre, et ça, OpenAI l'a compris trop tard. Pour les startups IA en Europe, deux IPOs à 50 milliards cumulés vont concentrer les capitaux comme on n'a pas vu depuis longtemps.

BusinessOpinion
1 source
Un dirigeant d'OpenAI dans une note interne : le marché est plus compétitif que jamais
46The Verge AI 

Un dirigeant d'OpenAI dans une note interne : le marché est plus compétitif que jamais

Denise Dresser, directrice des revenus d'OpenAI, a envoyé dimanche un mémo interne de quatre pages aux employés de l'entreprise. Le document, consulté par The Verge, détaille la direction stratégique de la société et insiste sur deux priorités : fidéliser les utilisateurs existants et accélérer le développement de l'activité auprès des clients entreprise. Dresser a récemment repris une grande partie des responsabilités de l'ancien directeur des opérations Brad Lightcap, qui se réoriente vers un nouveau poste centré sur des projets spéciaux. Son constat est sans détour : "Le marché est aussi compétitif que je ne l'ai jamais vu." Le mémo revient à plusieurs reprises sur la nécessité de construire un "fossé" autour des produits d'OpenAI, c'est-à-dire des raisons suffisamment fortes pour qu'utilisateurs et entreprises ne migrent pas vers un concurrent. C'est précisément le talon d'Achille du secteur : les modèles d'IA se valent souvent d'une semaine à l'autre selon les benchmarks, et le coût de changement reste quasi nul pour la plupart des utilisateurs. La rétention devient donc un enjeu stratégique aussi important que l'acquisition. Ce signal interne reflète une tension croissante chez OpenAI, qui doit défendre sa position de leader face à une concurrence qui s'est radicalement accélérée ces derniers mois. Google, Anthropic, Meta et des acteurs comme DeepSeek ou Mistral réduisent l'écart technique, tandis que Microsoft, principal partenaire et investisseur d'OpenAI, diversifie ses propres intégrations IA. Le tournant vers l'entreprise, segment plus stable et moins volatil que le grand public, traduit une maturité commerciale mais aussi une forme de pression sur la croissance organique de ChatGPT.

UEMistral est explicitement cité comme concurrent réduisant l'écart technique avec OpenAI, ce qui confirme la montée en puissance des acteurs européens dans la compétition mondiale des modèles IA.

BusinessOpinion
1 source
Reinforcement Learning Gym" valorisée à 750 millions de dollars, portée par la demande en données d'entraînement
47The Information AI 

Reinforcement Learning Gym" valorisée à 750 millions de dollars, portée par la demande en données d'entraînement

Fleet, une startup américaine spécialisée dans la création d'environnements d'entraînement pour l'intelligence artificielle, est en négociation pour lever au moins 50 millions de dollars à une valorisation d'environ 750 millions de dollars. Fondée il y a deux ans, l'entreprise développe et vend des "gymnases d'apprentissage par renforcement", des répliques fonctionnelles d'applications populaires comme Salesforce ou Excel, conçues pour apprendre aux modèles d'IA à utiliser ces outils. Bain Capital Ventures est en discussion pour mener ce tour de table, avec la participation des investisseurs existants Sequoia Capital, Menlo Ventures et SV Angel. Cette levée de fonds illustre une croissance financière spectaculaire : Fleet est passée d'un million de dollars de revenus annualisés fin 2025 à plus de 60 millions de dollars ces dernières semaines, soit une multiplication par soixante en quelques mois. La valorisation elle-même a bondi de plus de sept fois par rapport à son tour d'amorçage, qui était inférieur à 100 millions de dollars. Ce momentum reflète l'appétit croissant des grands laboratoires d'IA pour des données d'entraînement de qualité, en particulier celles qui permettent d'enseigner aux modèles comment interagir avec des logiciels du monde réel. L'essor de Fleet s'inscrit dans une tendance de fond : à mesure que les données textuelles classiques s'épuisent, les développeurs d'IA cherchent de nouvelles façons d'entraîner leurs modèles, notamment via des environnements simulés où les agents apprennent par essais et erreurs. Reproduire des interfaces logicielles complexes représente un défi technique et juridique considérable, mais aussi une opportunité commerciale majeure pour ceux qui y parviennent. Avec le soutien de fonds aussi influents que Sequoia et Bain Capital Ventures, Fleet se positionne comme un acteur clé de cette infrastructure invisible qui alimente la prochaine génération de modèles capables d'agir, et pas seulement de répondre.

BusinessActu
1 source
Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle
48AI News 

Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle

La majorité des entreprises déploient aujourd'hui l'intelligence artificielle de manière progressive et encadrée, loin des systèmes autonomes qui font régulièrement la une. Selon une étude de McKinsey & Company, la plupart des organisations utilisent désormais l'IA dans au moins un domaine de leur activité, mais rares sont celles qui l'ont déployée à l'échelle de l'ensemble de l'entreprise. Un exemple concret illustre cette tendance : S&P Global Market Intelligence a intégré des outils d'IA dans sa plateforme Capital IQ Pro, utilisée par des analystes financiers pour examiner des dépôts réglementaires, des transcriptions d'appels de résultats et des données de marché. Le système permet d'interroger de vastes ensembles de données via une interface conversationnelle, mais les résultats restent systématiquement ancrés dans des sources financières vérifiées, avec la possibilité de remonter aux documents d'origine pour limiter les erreurs. Ce choix d'une IA d'assistance plutôt qu'autonome n'est pas anodin dans des secteurs où une erreur peut entraîner des pertes financières importantes ou engager des responsabilités légales. En finance, les outils comme Capital IQ Pro sont conçus pour éclairer le jugement des analystes, pas pour le remplacer. La décision finale reste humaine. McKinsey souligne par ailleurs un écart croissant entre le déploiement de l'IA et la génération de valeur mesurable : de nombreuses organisations peinent à traduire leurs investissements en résultats concrets. Ce fossé pousse les directions à exiger des systèmes capables d'expliquer leurs sorties, de citer leurs sources et d'opérer dans des périmètres définis, trois conditions essentielles pour établir la confiance dans des environnements réglementés. Derrière cette prudence se dessine un enjeu de gouvernance qui mobilise de plus en plus d'acteurs. S&P Global Market Intelligence note que les organisations bâtissent activement des cadres pour gérer les risques liés à l'IA, notamment la qualité des données et les biais des modèles. Les systèmes agents, capables de planifier et d'agir sans intervention humaine directe, suscitent un intérêt grandissant, mais la majorité des entreprises en est encore aux premières étapes d'expérimentation. Les progrès continus sur les grands modèles de langage laissent entrevoir des usages plus autonomes à terme, en analyse financière, support client ou gestion de chaîne logistique. Ces questions seront au coeur de l'AI & Big Data Expo North America 2026, qui se tiendra les 18 et 19 mai prochains, avec S&P Global Market Intelligence parmi les sponsors, et des sessions dédiées à la gouvernance de l'IA et à son usage dans les industries régulées.

UELes entreprises européennes opérant dans des secteurs réglementés (finance, santé) sont directement concernées par les cadres de gouvernance IA décrits, notamment dans le contexte de la mise en conformité avec l'AI Act.

BusinessOpinion
1 source
Comment un programmeur autodidacte est devenu le père de Claude Code
49The Information AI 

Comment un programmeur autodidacte est devenu le père de Claude Code

Boris Cherny, le directeur de Claude Code chez Anthropic, a failli quitter définitivement l'entreprise l'été dernier. À la place, il a contribué à faire de l'agent de programmation l'un des produits les plus populaires du moment, capable de rivaliser directement avec OpenAI. Les chiffres parlent d'eux-mêmes : les revenus annualisés de Claude Code sont passés de 1 milliard de dollars en décembre 2024 à 2,5 milliards en février 2025, avant d'accélérer encore ces dernières semaines, propulsant Anthropic à 30 milliards de dollars de revenus annualisés au total. Cette trajectoire valide le retour de Cherny chez Anthropic après un bref passage l'été dernier chez Cursor, une startup spécialisée dans les outils de programmation. Son départ avait alors été perçu comme un coup dur pour Anthropic et un avantage potentiel pour ce concurrent plus modeste. Mais depuis son retour, Claude Code a profondément bousculé une industrie technologique déjà sous l'emprise de l'IA : le produit a accéléré l'essor des agents IA autonomes, contribué à une chute des valeurs boursières des éditeurs de logiciels traditionnels, et redéfini le quotidien des ingénieurs logiciels, dont le rôle évolue à mesure que ces outils prennent en charge une part croissante du travail de développement. Boris Cherny est un cas atypique dans cet écosystème dominé par les diplômés des grandes universités : programmeur autodidacte, il s'est imposé comme l'architecte d'un produit qui redessine les contours du développement logiciel. La course aux agents de code oppose désormais frontalement Anthropic et OpenAI, dans un marché où la capacité à attirer et retenir les talents clés se révèle aussi déterminante que la puissance des modèles eux-mêmes. L'épisode Cursor illustre bien les tensions qui traversent ce secteur, où les débauchages et les retours en grâce peuvent peser des milliards de dollars de valorisation.

BusinessOpinion
1 source
Peur et dégoût chez OpenAI
50The Verge AI 

Peur et dégoût chez OpenAI

Le New Yorker a publié cette semaine un long portrait de Sam Altman, PDG d'OpenAI, revenant sur son parcours tumultueux à la tête de l'entreprise la plus influente dans le domaine de l'intelligence artificielle. Le texte rappelle l'épisode le plus marquant de cette saga : en novembre 2023, Altman avait été brusquement licencié par le conseil d'administration d'OpenAI, avant d'être réintégré quelques jours seulement après sous la pression des employés et des investisseurs. Depuis, il a profondément reconfiguré la gouvernance de l'organisation à son avantage. L'enquête soulève une question centrale : Sam Altman est-il la bonne personne pour piloter une technologie aussi puissante et structurante que l'IA générative ? Le profil dressé par le New Yorker interroge la capacité d'un dirigeant au style controversé à assumer la responsabilité d'outils qui transforment en profondeur l'économie, le travail et la société. Pour des millions d'utilisateurs et des milliers d'entreprises qui dépendent de ChatGPT et des API d'OpenAI, la question du leadership n'est pas anodine. OpenAI a connu depuis sa fondation des tensions internes récurrentes entre sa mission originelle à but non lucratif et ses ambitions commerciales croissantes, alimentées par des milliards de dollars d'investissement de Microsoft notamment. La crise de gouvernance de 2023 a mis en lumière ces contradictions structurelles, sans les résoudre. Le débat sur l'identité et les valeurs d'OpenAI reste ouvert, d'autant qu'Altman pousse désormais l'entreprise vers une transformation en société à but lucratif à part entière.

UELa transformation d'OpenAI en société à but lucratif pourrait modifier les conditions d'accès et la tarification de ses API pour les milliers d'entreprises européennes qui en dépendent.

💬 Le vrai sujet du New Yorker, c'est pas Altman, c'est la question qu'on esquive tous depuis 2023 : est-ce qu'on a vraiment envie que l'IA générative soit pilotée par quelqu'un qui a retourné son propre conseil d'administration en 5 jours ? La transition vers le tout-lucratif, je l'attendais, elle était écrite dès les premiers milliards de Microsoft. Mais là, pour les boîtes européennes qui ont tout misé sur les API OpenAI, ça va se traduire en dollars, bientôt.

BusinessOpinion
1 source