Aller au contenu principal
BusinessThe Decoder1h

GPT-5.5 coûte 49 à 92 % plus cher que son prédécesseur, selon la longueur des entrées

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a doublé le prix affiché de GPT-5.5 par rapport à GPT-5.4, justifiant cette hausse par la promesse que des réponses plus courtes compenseraient le surcoût pour les utilisateurs. Mais une analyse conduite par OpenRouter, plateforme d'agrégation de modèles de langage, révèle que la réalité est bien différente : en s'appuyant sur des données d'utilisation réelles, OpenRouter conclut que les coûts effectifs ont augmenté de 49 à 92 % selon la longueur des requêtes soumises au modèle.

Cette hausse tarifaire a des conséquences directes pour les développeurs et les entreprises qui intègrent GPT-5.5 dans leurs applications via l'API d'OpenAI. Une augmentation pouvant frôler les 100 % sur certains usages représente un choc budgétaire significatif, en particulier pour les startups et les équipes traitant de gros volumes de requêtes. Le fait que l'écart entre le tarif officiel et le coût réel soit si prononcé soulève également des questions sur la transparence des grilles tarifaires publiées par OpenAI.

Anthropic a, elle aussi, relevé le prix de son modèle haut de gamme Opus 4.7, confirmant une tendance de fond dans l'industrie. Les deux entreprises se préparent à une introduction en bourse, ce qui pourrait expliquer une stratégie visant à améliorer leur rentabilité à court terme. Alors que la concurrence entre les grands acteurs de l'IA reste intense, cette course à la hausse des prix suggère que la phase de conquête à prix coûtant laisse progressivement place à une logique de monétisation plus agressive.

Impact France/UE

Les startups et développeurs européens intégrant GPT-5.5 ou Opus 4.7 via API subissent une hausse effective de 49 à 92 % de leurs coûts opérationnels, les contraignant à revoir leurs budgets ou à évaluer des alternatives open-source.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

DeepSeek propose son modèle V4 à 97 % moins cher que GPT-5.5 d'OpenAI
1SCMP Tech 

DeepSeek propose son modèle V4 à 97 % moins cher que GPT-5.5 d'OpenAI

DeepSeek a annoncé dimanche une baisse drastique des tarifs de ses modèles d'intelligence artificielle, dont son dernier modèle V4, désormais proposé à 97 % moins cher que les produits d'OpenAI. Concrètement, le coût minimum des entrées en cache pour les utilisateurs d'API tombe à environ 0,14 dollar par million de tokens, soit un dixième du prix précédent. Cette réduction s'applique aux "input cache hits", c'est-à-dire aux situations où un contexte déjà traité est réutilisé, ce qui concerne une grande partie des appels API en production. Cette annonce pourrait déclencher une nouvelle guerre des prix dans un secteur déjà sous pression. Pour les développeurs et les entreprises qui s'appuient sur des API de LLMs pour leurs applications, un écart de prix de 97 % par rapport à GPT-5.5 d'OpenAI représente un argument économique difficile à ignorer. Cela contraint directement les acteurs occidentaux à revoir leur stratégie tarifaire ou à justifier différemment la valeur de leurs modèles. DeepSeek s'est imposé début 2025 comme un compétiteur sérieux face aux géants américains, notamment avec son modèle R1 qui avait surpris l'industrie par ses performances à coût réduit. La startup chinoise capitalise sur des architectures optimisées et des coûts d'infrastructure inférieurs pour casser les prix. Cette dynamique s'inscrit dans une rivalité technologique plus large entre la Chine et les États-Unis sur le terrain de l'IA, où la course à la performance s'est progressivement doublée d'une course aux prix accessibles.

UELes développeurs et entreprises européennes utilisant des APIs LLM peuvent réduire drastiquement leurs coûts d'inférence, tout en bénéficiant d'une pression à la baisse sur les tarifs des autres fournisseurs présents sur le marché européen.

BusinessOpinion
1 source
Token, compute, dérive des usages : pourquoi l’IA peut coûter plus cher que vos équipes ?
2Le Big Data 

Token, compute, dérive des usages : pourquoi l’IA peut coûter plus cher que vos équipes ?

Dans certaines entreprises, la facture mensuelle liée à l'intelligence artificielle dépasse désormais celle des salaires humains. C'est le constat documenté par Axios dans une enquête publiée fin avril 2026, qui révèle que le coût du traitement des requêtes IA excède, dans certains cas, celui des équipes en chair et en os. Bryan Catanzaro, responsable chez Nvidia, a confirmé le phénomène pour ses propres équipes. Le New York Times rapporte que certains utilisateurs intensifs atteignent plus de 150 000 dollars de dépenses mensuelles en tokens, certains ingénieurs dépensant davantage en usage d'IA qu'ils ne touchent en salaire. Chez Uber, des équipes utilisant des outils comme Claude Code ont déjà épuisé leur budget annuel d'IA bien avant la fin de l'exercice, selon The Information. Le phénomène a même un nom dans les milieux tech : le "tokenmaxxing", pratique où les ingénieurs maximisent délibérément leur consommation de tokens, parfois comme indicateur implicite de performance. Ce glissement remet en cause la promesse fondatrice de l'IA en entreprise : réduire les coûts grâce à l'automatisation. L'équation est plus complexe que prévu. Chaque requête envoyée à un modèle consomme des tokens facturés, et lorsque les agents s'exécutent en parallèle sans supervision directe, les volumes explosent. La structure de coût des entreprises se transforme en profondeur : les dépenses, autrefois fixes et prévisibles via les ressources humaines, deviennent variables, dépendantes de l'usage, et donc difficiles à piloter. Pour les organisations qui n'ont pas mis en place de garde-fous, la dérive peut être rapide. Chez Meta, l'utilisation de l'IA est désormais intégrée dans l'évaluation des performances des employés, ce qui pousse mécaniquement à une consommation accrue. Google et Microsoft adoptent des dynamiques similaires, une grande part du code produit étant déjà générée par des modèles. Cette situation profite directement aux fournisseurs de modèles. OpenAI et Anthropic bénéficient de la hausse de consommation, Anthropic ayant d'ailleurs relevé ses tarifs récemment. Les investisseurs parient sur la capacité des modèles les plus efficaces à capter davantage de clients en offrant un meilleur ratio performance-coût. Du côté des entreprises consommatrices, les réponses restent expérimentales. Jensen Huang, PDG de Nvidia, a évoqué l'idée de distribuer des quotas de tokens aux employés, à l'image d'une enveloppe salariale dédiée à l'IA, ce qui transformerait l'accès à la puissance de calcul en véritable avantage compétitif individuel. Le compute est en passe de devenir une ligne budgétaire stratégique aussi sensible que la masse salariale, obligeant les directions financières à repenser leur manière de gouverner ces outils avant que la facture ne devienne incontrôlable.

UELes entreprises européennes adoptant des agents IA à grande échelle sont exposées aux mêmes dérives budgétaires documentées aux États-Unis, sans cadre de gouvernance des coûts IA encore établi au niveau sectoriel ou réglementaire.

BusinessOpinion
1 source
Les 7 plus grandes bourdes d'Elon Musk à la barre lors du procès contre OpenAI
3Ars Technica AI 

Les 7 plus grandes bourdes d'Elon Musk à la barre lors du procès contre OpenAI

Elon Musk a comparu pour la troisième journée consécutive jeudi au tribunal de San Francisco dans le cadre de son procès contre OpenAI, une audience de quatre semaines au cours de laquelle il cherche à bloquer la transformation de l'entreprise en société à but lucratif et son éventuelle introduction en Bourse. Musk affirme qu'OpenAI a trahi sa mission originelle à but non lucratif après avoir accepté 38 millions de dollars de dons, et accuse Sam Altman d'avoir toujours voulu transformer la structure en une entreprise valorisée à 800 milliards de dollars, au bénéfice d'un cercle restreint plutôt que de l'humanité. Sa stratégie judiciaire repose sur la disqualification morale d'Altman et de ses co-fondateurs, avec pour objectif ultime de le faire évincer de la direction. Mais cette troisième journée à la barre a été particulièrement désastreuse pour Musk. L'avocat d'OpenAI a obtenu plusieurs concessions importantes, parfois contre les objections de ses propres avocats. Des documents versés au dossier ont directement contredit son témoignage, le faisant paraître malhonnête à plusieurs reprises. Il a tenté de minimiser l'existence d'un historique de sécurité chez xAI, son propre laboratoire d'IA, avant d'être contraint de l'admettre, fragilisant sa posture de défenseur de la sécurité de l'IA. Plus embarrassant encore, il a affirmé ne jamais s'emporter, avant d'élever la voix face à l'avocat adverse quelques instants plus tard. Il a également reconnu ne pas savoir ce que sont les "safety cards", alors que xAI en publie. Ce procès s'inscrit dans une confrontation plus large entre deux visions de l'avenir de l'IA. Musk, cofondateur originel d'OpenAI qu'il a quitté en 2018, a depuis fondé xAI, concurrent direct. Les liens entre Musk et Donald Trump ont également été admis au dossier par le juge, malgré les objections de ses avocats, ce qui pourrait davantage nuire à sa crédibilité. Après plus de sept heures à la barre depuis le début du procès, sa capacité à renverser le cours de la procédure semble aujourd'hui compromise.

UEL'issue du procès pourrait influencer la structure et la gouvernance d'OpenAI, dont les services sont largement déployés en Europe, mais sans impact réglementaire direct sur la France ou l'UE à ce stade.

BusinessActu
1 source
Les IPO de SpaceX et d'entreprises IA font peser des risques sur l'essor du secteur, selon des investisseurs
4The Information AI 

Les IPO de SpaceX et d'entreprises IA font peser des risques sur l'essor du secteur, selon des investisseurs

Lors d'un événement sur le financement de l'IA organisé par The Information à New York ce lundi, des investisseurs ont mis en garde contre les risques que font peser plusieurs introductions en bourse majeures sur l'ensemble de l'écosystème IA. SpaceX, Anthropic et OpenAI pourraient toutes entrer en bourse au cours de la même année civile, ce qui représenterait, selon Alexa von Tobel, fondatrice et associée gérante d'Inspired Capital, "trois des plus grandes IPO de l'histoire, potentiellement toutes dans le même calendrier". À l'heure où les grandes entreprises tech et IA cherchent à lever des centaines de milliards de dollars en capitaux propres et en dette pour construire des centres de données, la pression sur ces opérations est considérable. Le risque est simple : si ces introductions en bourse déçoivent les marchés, l'enthousiasme général pour l'investissement dans l'IA pourrait se refroidir brutalement. Von Tobel a utilisé l'expression "cold water on reality" pour décrire ce scénario, où de mauvaises performances boursières rendraient les capitaux environnants "plus prudents". Dans un secteur où la confiance des investisseurs alimente directement la construction d'infrastructures massives, un signal négatif sur les marchés publics aurait des répercussions bien au-delà des seules entreprises concernées, affectant potentiellement des dizaines de milliards de dollars de projets de data centers en cours. Ce contexte s'inscrit dans une période d'investissement sans précédent dans l'infrastructure IA : Microsoft, Google, Amazon et Meta ont annoncé des plans d'investissement totalisant plusieurs centaines de milliards de dollars pour 2025 et 2026. OpenAI et Anthropic, encore privées, sont valorisées respectivement à plusieurs centaines de milliards de dollars, et leur entrée en bourse constituerait un test grandeur nature de la confiance du marché public dans la rentabilité future de l'IA générative. La performance de ces IPO servira de baromètre pour toute une génération d'investissements technologiques à venir.

UEUn échec ou une déception de ces IPO américaines pourrait refroidir l'appétit des investisseurs européens pour l'IA et ralentir le financement des startups et projets d'infrastructure IA en Europe.

BusinessOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour