Aller au contenu principal
#Nextquick : Pourquoi et comment Opus 4.7 crame ses tokens beaucoup plus vite qu’Opus 4.6
LLMsNext INpact1h

#Nextquick : Pourquoi et comment Opus 4.7 crame ses tokens beaucoup plus vite qu’Opus 4.6

Résumé IASource uniqueImpact UE
Source originale ↗·

Depuis le lancement d'Opus 4.7, de nombreux utilisateurs d'Anthropic constatent que leur forfait de tokens s'épuise nettement plus vite qu'avec la version précédente du modèle. Les tarifs affichés sont pourtant identiques : 5 dollars par million de tokens en entrée et 25 dollars par million en sortie, exactement comme pour Opus 4.6. Mais Anthropic reconnaît lui-même qu'une même requête peut consommer entre 1,0 et 1,35 fois plus de tokens avec Opus 4.7, selon le type de contenu, en raison d'un nouveau tokeniseur intégré au modèle. À cela s'ajoute un comportement de raisonnement plus intensif : Opus 4.7 génère davantage de tokens de sortie lorsqu'il fait face à des tâches complexes, car il mobilise un effort cognitif plus soutenu. Des tests comparatifs sur des prompts simples ont mis en évidence une consommation supérieure de 41 % par rapport à Opus 4.6. Claude Code, l'outil de développement assisté d'Anthropic, était particulièrement touché, avant qu'Anthropic n'intervienne pour réduire la verbosité des réponses.

Cette sur-consommation a des conséquences financières directes et non négligeables pour les développeurs et les entreprises qui utilisent l'API à grande échelle. À usage identique, le coût réel d'Opus 4.7 dépasse celui d'Opus 4.6 malgré un tarif affiché identique, ce qui brouille la lisibilité budgétaire pour les équipes techniques. Pour les abonnés aux forfaits à volume fixe, c'est une érosion accélérée des quotas mensuels, parfois sans modification de leurs pratiques d'utilisation. Le problème touche aussi bien les développeurs indépendants que les équipes professionnelles intégrant Claude dans des pipelines automatisés.

Ce décalage entre prix nominal et coût réel illustre une tension croissante dans l'industrie des LLM : les modèles deviennent plus capables, mais leur économie d'usage se complexifie. Le passage à un nouveau tokeniseur, décision technique invisible pour l'utilisateur final, peut bouleverser les budgets sans que les grilles tarifaires ne changent d'un centime. Anthropic a partiellement corrigé le tir en limitant la longueur des réponses, mais la question de la transparence sur le coût effectif des tokens reste ouverte, d'autant que les prochaines versions de Claude continueront probablement d'évoluer dans cette direction de raisonnement étendu.

Impact France/UE

Les développeurs et entreprises européens utilisant l'API Claude d'Anthropic subissent une hausse de coût réel de 20 à 41% sans modification du tarif affiché, dégradant la prévisibilité budgétaire des équipes techniques intégrant Claude dans des pipelines automatisés.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Decoder 

Premiers tests : Opus 4.7 coûte nettement plus cher que 4.6 malgré les tarifs identiques d'Anthropic

Anthropic a maintenu les tarifs d'Opus 4.7 au même niveau que ceux de son prédécesseur Opus 4.6, avec un prix identique par token. Pourtant, les premières mesures réelles effectuées par des utilisateurs de Claude Code révèlent que chaque requête revient en pratique bien plus cher. La raison : un nouveau tokenizer intégré à Opus 4.7 qui décompose le même texte en jusqu'à 47 % de tokens supplémentaires. Autrement dit, un prompt identique génère désormais un volume de tokens sensiblement plus élevé, ce qui fait mécaniquement grimper la facture à chaque appel à l'API. Pour les développeurs qui utilisent Claude Code de manière intensive, l'impact est immédiat et concret. Sans aucune modification de leurs usages ni de leurs prompts, leurs coûts opérationnels augmentent de façon significative, potentiellement de l'ordre de 30 à 47 % selon les cas. Cette hausse déguisée contourne la communication officielle sur les prix et complique la planification budgétaire des équipes techniques qui s'appuient sur l'API d'Anthropic. Ce phénomène illustre une tension croissante dans l'industrie des LLM : les annonces tarifaires en prix par token masquent souvent des évolutions architecturales qui modifient profondément le coût réel d'utilisation. Anthropic n'est pas la première entreprise à opérer ce type de changement discret via une mise à jour de tokenizer. La publication de ces mesures par la communauté Claude Code devrait pousser Anthropic à clarifier sa communication, alors que la concurrence entre OpenAI, Google et les acteurs open source s'intensifie sur le terrain des prix.

UELes développeurs européens utilisant l'API Claude doivent anticiper une hausse réelle de leurs coûts opérationnels de 30 à 47 % lors du passage à Opus 4.7, sans que les tarifs officiels publiés par Anthropic n'en fassent mention.

💬 Le tarif par token n'a pas bougé, mais le nouveau tokenizer d'Opus 4.7 découpe le même texte en jusqu'à 47 % de morceaux de plus. Résultat : une facture en hausse de 30 à 47 % sans que la page de pricing d'Anthropic en souffle mot. C'est le genre de truc qu'on découvre en prod, pas dans un communiqué.

LLMsActu
1 source
Le problème des gobelins d'OpenAI : pourquoi il compte et comment libérer les vôtres
2VentureBeat AI 

Le problème des gobelins d'OpenAI : pourquoi il compte et comment libérer les vôtres

Le 27 avril 2026, un développeur utilisant le pseudonyme @arb8020 sur X a mis au jour un passage pour le moins étrange dans le dépôt GitHub open source de Codex, l'outil de codage d'OpenAI. Dans un fichier nommé models.json, une directive répétée quatre fois concernant GPT-5.5 ordonnait au modèle de ne jamais parler de "gobelins, gnomes, ratons laveurs, trolls, ogres, pigeons ou autres animaux ou créatures" sauf si le sujet était "absolument et sans ambiguïté pertinent" pour la requête de l'utilisateur. La publication est devenue virale en quelques heures sur Reddit et X, suscitant une vague de spéculations : des utilisateurs rapportaient que GPT-5.5 qualifiait spontanément les bugs techniques de "gremlins", ou que certains agents basés sur le modèle semblaient "obsédés par les gobelins", comme l'a illustré Barron Roth, Senior Project Manager chez Google, avec une capture d'écran de son agent OpenClaw. Sam Altman lui-même a rejoint la discussion, publiant avec humour une capture d'un prompt demandant de "lancer l'entraînement de GPT-6 avec des gobelins supplémentaires". Cette affaire dépasse le simple anecdote. Elle met en lumière les limites encore mal comprises du Reinforcement Learning from Human Feedback (RLHF), la technique centrale qui permet d'aligner les grands modèles de langage sur les préférences humaines. Comme l'ont noté des chercheurs sur Hacker News, il s'agit d'un "problème de l'éléphant rose" : interdire explicitement à un modèle de penser à quelque chose peut paradoxalement renforcer la saillance de ce concept dans son mécanisme d'attention. Pour une entreprise valorisée à plus de 300 milliards de dollars et dont les modèles sont utilisés par des millions de professionnels, voir une directive aussi surprenante s'infiltrer en production souligne à quel point le comportement émergent des LLMs reste difficile à contrôler, même avec des équipes de pointe. OpenAI a répondu dès le lendemain avec un billet de blog officiel intitulé "Where the goblins came from", apportant une explication technique. La cause n'est pas un bug classique, mais un effet de bord inattendu de la fonctionnalité de personnalisation introduite dans ChatGPT en juillet 2025. Contrairement à ce que l'on pourrait supposer, cette personnalisation (modes Professionnel, Amical, Efficace, Candide, etc.) n'est pas appliquée après l'entraînement du modèle, mais intégrée directement dans le pipeline d'entraînement de bout en bout des modèles GPT. C'est précisément cette intégration profonde qui a produit des comportements non anticipés, forçant l'équipe à ajouter des instructions correctives explicites dans le fichier de configuration. L'incident illustre un défi structurel pour tout le secteur : plus les modèles sont personnalisables et entraînés de manière holistique, plus les interactions entre objectifs distincts deviennent imprévisibles.

UELes développeurs et entreprises européens utilisant GPT-5.5 peuvent être exposés à des comportements émergents imprévus, mais l'impact reste indirect et mondial sans spécificité France/UE.

LLMsOpinion
1 source
GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?
3Le Big Data 

GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?

OpenAI et Anthropic ont tous deux lancé leurs nouveaux modèles phares à quelques semaines d'intervalle : GPT-5.5 et Claude Opus 4.7. Sur l'Artificial Analysis Intelligence Index, qui agrège les performances sur un large éventail de tâches, GPT-5.5 s'impose avec un score de 60 contre 57 pour Claude Opus 4.7, le plaçant en tête du classement mondial toutes catégories confondues. Mais les benchmarks spécialisés racontent une histoire différente : sur le GPQA Diamond, un test composé de questions de niveau doctorat en sciences dures, Claude Opus 4.7 obtient 94,2 % contre 93,6 % pour GPT-5.5. Sur l'Humanity's Last Exam, conçu pour résister à la mémorisation et testant le raisonnement interdisciplinaire pointu, l'avantage d'Anthropic se creuse davantage : 46,9 % pour Opus 4.7 contre 41,4 % pour GPT-5.5 sans outils. Les deux modèles s'appuient sur des tokens de raisonnement invisibles qui améliorent leurs capacités mais les rendent plus lents et sensiblement plus chers à l'usage. L'écart entre les deux modèles révèle deux profils d'excellence distincts qui auront des conséquences concrètes sur les choix des développeurs et des entreprises. GPT-5.5 domine sur les capacités agentiques, utilisation d'un terminal, navigation web autonome, cybersécurité offensive, ce qui en fait l'outil de référence pour l'automatisation et les workflows qui nécessitent qu'une IA "fasse des choses" de façon autonome. Claude Opus 4.7 s'impose en revanche sur les tâches qui exigent un raisonnement profond, la résolution de problèmes complexes sans réponse évidente, et la stratégie à long terme. Pour les équipes qui construisent des agents autonomes, le choix penchera vers OpenAI ; pour celles qui ont besoin d'analyse, de synthèse ou de conseil de haut niveau, Anthropic prend l'avantage. Cette confrontation s'inscrit dans une phase d'accélération sans précédent de la course aux modèles de base. OpenAI et Anthropic se disputent la position de référence auprès des entreprises, des développeurs et des plateformes tierces, sachant que le modèle adopté en infrastructure devient difficile à déloger. L'émergence des tokens de raisonnement comme standard, une technique issue des travaux sur les "chain-of-thought" et popularisée par o1 d'OpenAI fin 2024, marque un tournant : les deux acteurs ont convergé vers la même architecture de base, rendant les différenciations de plus en plus fines et contextuelles. La prochaine étape sera probablement de voir qui parvient à maintenir ce niveau de performance tout en réduisant les coûts d'inférence, condition sine qua non pour une adoption à grande échelle.

UELes développeurs et entreprises en France et en UE devront arbitrer entre GPT-5.5 pour les workflows agentiques et Claude Opus 4.7 pour l'analyse approfondie lors de leurs décisions d'infrastructure IA.

💬 Ce que je retiens, c'est pas le score global, c'est la ligne de partage qui s'impose : GPT-5.5 pour orchestrer des agents autonomes, Opus 4.7 pour les tâches où tu as besoin que le modèle réfléchisse vraiment. C'est utile pour choisir son stack, mais le sous-texte de tout ça, c'est que les deux convergent sur les tokens de raisonnement, et ça coûte cher. Reste à voir qui réussit à tenir ce niveau de performance tout en faisant baisser l'addition.

LLMsOpinion
1 source
DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5
4VentureBeat AI 

DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5

DeepSeek, la startup chinoise d'intelligence artificielle issue du fonds de trading quantitatif High-Flyer Capital Management, a publié DeepSeek-V4, un modèle de langage aux capacités proches des meilleurs systèmes mondiaux. Avec 1 600 milliards de paramètres organisés selon une architecture Mixture-of-Experts (MoE), ce modèle est disponible gratuitement sous licence MIT commercialement permissive, sur la plateforme Hugging Face et via l'API de DeepSeek. Son tarif d'accès : 1,74 dollar par million de tokens en entrée et 3,48 dollars par million en sortie, soit environ 5,22 dollars pour une utilisation combinée standard. Avec les entrées mises en cache, ce coût descend à 3,63 dollars. À titre de comparaison, GPT-5.5 d'OpenAI coûte 35 dollars pour la même transaction, et Claude Opus 4.7 d'Anthropic 30 dollars. Une version allégée, DeepSeek-V4-Flash, est proposée à seulement 0,42 dollar combiné, au prix d'une baisse de performance. Deli Chen, chercheur chez DeepSeek, a décrit cette sortie sur X comme "un travail d'amour", réalisé 484 jours après le lancement du V3, avec cette formule : "L'AGI appartient à tout le monde." L'impact économique est immédiat et brutal pour les acteurs américains du secteur. DeepSeek-V4-Pro coûte environ six fois moins cher que Claude Opus 4.7 et sept fois moins que GPT-5.5 en conditions normales, et jusqu'à dix fois moins avec les entrées en cache. La version Flash, elle, revient à moins de 1 % du tarif des modèles premium américains. Pour les entreprises traitant de gros volumes de requêtes, cette différence de coûts transforme radicalement le calcul de rentabilité : des tâches d'automatisation jugées trop onéreuses avec les modèles fermés américains deviennent soudainement viables. Développeurs et directions techniques sont contraints de réévaluer leurs choix d'infrastructure, et les fournisseurs positionnés sur le haut de gamme voient leur argument tarifaire sérieusement fragilisé. Ce lancement s'inscrit dans la continuité du "moment DeepSeek" de janvier 2025, quand le modèle R1 avait stupéfait la communauté internationale en rivalisant avec les meilleurs systèmes propriétaires américains à une fraction de leur coût de développement. Depuis, la startup avait publié plusieurs mises à jour de ses séries R1 et V3, mais la communauté attendait un successeur de grande envergure. Ce DeepSeek-V4 est d'ores et déjà qualifié de "deuxième moment DeepSeek", et il ravive les débats sur la pérennité commerciale des modèles fermés face aux alternatives open source chinoises. Il soulève également des questions sur la capacité de DeepSeek à maintenir cette trajectoire malgré les restrictions américaines sur l'exportation de puces haut de gamme, contraintes que l'entreprise semble contourner avec une efficacité croissante grâce à des optimisations architecturales poussées.

UEL'écart de prix, jusqu'à six fois inférieur aux modèles premium américains, permet aux entreprises européennes de rentabiliser des projets d'automatisation IA jusqu'ici jugés trop coûteux.

💬 Six fois moins cher qu'Opus 4.7, performances comparables, licence MIT. C'est exactement le scénario que les équipes produit chez OpenAI et Anthropic essayaient de ne pas avoir à gérer, et il arrive quand même. "L'AGI appartient à tout le monde", dit DeepSeek, bon, sur le papier c'est beau, mais le vrai truc c'est que des automatisations qu'on refusait de budgéter il y a six mois deviennent rentables dès ce soir.

LLMsOpinion
1 source