Aller au contenu principal
Anthropic change ses règles du jeux, des applications tierces aux limites des sessions
BusinessNext INpact1sem

Anthropic change ses règles du jeux, des applications tierces aux limites des sessions

1 source couvre ce sujet·Source originale ↗·

Anthropic a annoncé et déployé en un seul week-end, début avril 2026, un changement majeur de son modèle économique : les abonnements Claude (Pro, Max, Team, Enterprise) ne couvrent plus l'utilisation de l'IA via des applications tierces. Désormais, toute intégration externe doit passer par l'API, facturée à l'usage -- entre 1 et 5 dollars par million de tokens pour le modèle Haiku, et entre 5 et 25 dollars pour Opus. L'annonce a été faite samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en application dès le lendemain. Les abonnés ont reçu un email leur offrant un crédit équivalent à leur abonnement mensuel pour amortir la transition, mais la règle s'applique sans délai supplémentaire depuis le 4 avril. L'application la plus directement visée est OpenClaw, citée nommément par Anthropic dans ses communications : cet agent IA, qui avait fait parler de lui en début d'année, voit son modèle d'accès radicalement modifié.

Ce changement frappe directement les utilisateurs qui s'appuyaient sur des outils tiers connectés à leur compte Claude sans frais supplémentaires. Pour eux, continuer à utiliser ces applications implique désormais des coûts additionnels, en dehors de l'abonnement existant. Peter Steinberger, créateur d'OpenClaw -- qui a rejoint OpenAI mi-février pour travailler sur la prochaine génération d'agents personnels -- a réagi sur X en qualifiant cette décision de "triste pour l'écosystème". Il annonce néanmoins que la dernière version d'OpenClaw intègre des optimisations du cache pour réduire les coûts API des utilisateurs. Pour les développeurs et les startups qui construisent des produits autour des capacités de Claude, le signal est clair : Anthropic reprend le contrôle de la chaîne de valeur et entend monétiser directement chaque usage, même indirect.

Ce durcissement des conditions ne s'arrête pas là. Anthropic a également modifié les limites de sessions de cinq heures pour tous les abonnements, y compris gratuit, Pro et Max, en les réduisant pendant les heures de pointe -- en semaine de 5h à 11h PT et de 13h à 19h GMT. La justification officielle est la "demande croissante sur Claude", et l'entreprise estime qu'environ 7 % des utilisateurs seront concrètement affectés, notamment les utilisateurs Pro exécutant des tâches longues gourmandes en tokens. Ces décisions consécutives témoignent d'une pression croissante sur les infrastructures d'Anthropic face à l'adoption massive de ses modèles, mais aussi d'une stratégie claire visant à canaliser les usages intensifs vers l'API payante, plus rentable. La grogne des abonnés s'est rapidement manifestée sur Reddit et les réseaux sociaux, certains pointant par ailleurs des bugs dans le système de cache de l'IA qui augmenteraient artificiellement la consommation de tokens.

Impact France/UE

Les développeurs et abonnés européens utilisant des applications tierces connectées à Claude doivent désormais payer des coûts API en plus de leur abonnement existant, ce qui modifie directement leur modèle économique.

💬 Le point de vue du dev

C'était prévisible, mais la brutalité du timing, un week-end, sans préavis réel, ça fait mal à l'écosystème. Anthropic verrouille la chaîne de valeur et envoie un message très clair aux builders : si ton produit repose sur Claude sans passer par l'API, t'as construit sur du sable. Reste à voir combien de startups vont absorber la facture sans broncher, ou migrer vers Gemini.

À lire aussi

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne
1VentureBeat AI 

Des dirigeants de Google, dont Demis Hassabis, contestent les allégations d'une adoption inégale de l'IA en interne

Un post publié le 13 avril sur X par Steve Yegge, ancien ingénieur Google reconverti en directeur de l'ingénierie chez Sourcegraph, a déclenché une vive polémique dans la Silicon Valley. Yegge y relayait les propos d'un ami, ingénieur actuel chez Google, selon lesquels l'adoption interne de l'IA chez Google serait bien plus banale que ce que l'entreprise laisse entendre. Selon cette source anonyme, les équipes de Google suivraient une distribution classique : 20 % de refractaires à l'IA, 60 % d'utilisateurs intermédiaires cantonnés aux assistants de code basiques, et seulement 20 % d'ingénieurs véritablement engagés dans des workflows agentiques avancés. Le post a rapidement enflammé les réseaux, atteignant 4 500 likes, 458 commentaires et 1,9 million de vues en moins de 24 heures. L'ami en question aurait également affirmé que certains Googlers ne pouvaient pas utiliser Claude Code d'Anthropic, perçu en interne comme "l'ennemi", et que Gemini n'était pas encore à la hauteur pour les cas d'usage les plus avancés. La réaction du côté de Google a été immédiate et tranchante. Demis Hassabis, cofondateur et PDG de Google DeepMind, a répondu directement à Yegge : "Dis à ton ami de faire un vrai travail plutôt que de propager des absurdités. Ce post est complètement faux, du pur clickbait." Addy Osmani, directeur chez Google Cloud AI, a livré une réfutation plus détaillée, affirmant que "plus de 40 000 ingénieurs utilisent des outils de codage agentiques chaque semaine" et que les équipes ont accès à des modèles personnalisés, des CLIs et des MCPs maison. Il a précisé que les Googlers peuvent même utiliser les modèles d'Anthropic via Vertex AI, concluant que "Google est tout sauf dans la moyenne." L'ingénieure Jaana Dogan a abondé dans ce sens, décrivant un usage quasi continu des outils IA dans son environnement quotidien. L'écho considérable de ce débat s'explique en grande partie par le profil de Yegge : avec treize ans chez Google, des passages chez Amazon et Grab, il s'est construit au fil des années une réputation d'insider-outsider au franc-parler, dont les analyses circulent largement dans les milieux tech. Un mémo interne qu'il avait rédigé chez Google en 2011 avait fuité et fait le tour des médias spécialisés, lui conférant un statut particulier. La polémique s'inscrit dans un contexte plus large : alors que les grandes entreprises tech rivalisent de communication autour de leur adoption de l'IA, la question de ce qui se passe réellement derrière les portes devient un enjeu de crédibilité. Pour Google, dont Gemini est à la fois un produit stratégique et un outil interne, toute suggestion d'un usage tiède en interne touche directement à la cohérence de son discours public.

BusinessOpinion
1 source
L'énigme de l'explosion des startups d'annotation de données
2The Information AI 

L'énigme de l'explosion des startups d'annotation de données

Le secteur des startups spécialisées dans l'annotation de données et les environnements d'apprentissage par renforcement connaît une croissance spectaculaire, tant en chiffre d'affaires qu'en valorisation. Ces entreprises recrutent des experts en médecine, droit et ingénierie logicielle pour produire des données d'entraînement destinées aux grands modèles d'IA, allant jusqu'à recréer des copies fictives d'applications comme Salesforce ou Excel. Leurs contrats avec les grands laboratoires d'IA varient considérablement : des équipes individuelles ou des chercheurs négocient directement leurs propres accords, avec des montants allant de quelques centaines de milliers à plusieurs millions de dollars. Ce modèle permet à ces startups d'atteindre rapidement 10 millions de dollars de revenus annualisés en partant de zéro. Cette dynamique illustre à quel point les grands labs d'IA dépendent encore massivement de données humaines de haute qualité pour entraîner leurs modèles, malgré les promesses d'automatisation. Des acteurs comme Anthropic ont multiplié les partenariats avec différentes startups, tandis qu'OpenAI a opté pour une approche centralisée avec une équipe dédiée gérant les relations fournisseurs. Pour les professionnels recrutés, médecins ou juristes, ces missions représentent une source de revenus complémentaires significative, tandis que les startups bénéficient d'une croissance rapide sans avoir besoin de lourds investissements technologiques initiaux. Pourtant, le secteur présente une fragilité structurelle majeure : ces entreprises ne disposent d'aucun avantage concurrentiel durable. Leur modèle repose sur des contrats courts et fragmentés, sans fidélisation forte côté clients. La fragmentation même du marché, où chaque chercheur peut choisir son fournisseur, expose ces startups à une concurrence féroce et à une instabilité contractuelle chronique. À mesure que les techniques d'entraînement synthétique et d'auto-amélioration des modèles progressent, la fenêtre d'opportunité pour ces acteurs pourrait se refermer aussi rapidement qu'elle s'est ouverte, soulevant des questions sur leur capacité à pivoter ou à consolider leurs positions avant que la demande ne s'érode.

UELes professionnels européens qualifiés (médecins, juristes, ingénieurs) pourraient accéder à ces contrats d'annotation comme source de revenus complémentaires, mais le marché est structuré autour de laboratoires américains sans ancrage réglementaire ou économique particulier en France ou en UE.

BusinessOpinion
1 source
OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
3Le Big Data 

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ». Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco. La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

UELes entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

BusinessOpinion
1 source
Scotiabank se prépare à son avenir avec l'IA
4AI News 

Scotiabank se prépare à son avenir avec l'IA

La banque canadienne Scotiabank a lancé Scotia Intelligence, un cadre unifié pour ses opérations de données et d'intelligence artificielle. Ce dispositif regroupe en une seule plateforme les environnements de calcul, les outils de gouvernance et les mécanismes de sécurité déjà en place au sein de l'établissement. Son volet opérationnel, Scotia Navigator, permet aux équipes internes, notamment celles en contact avec les clients, de construire et déployer leurs propres assistants IA dans le respect des règles de conformité de la banque. Les résultats annoncés sont concrets : les centres d'appels traitent désormais plus de 40 % des requêtes clients via l'IA, environ 90 % des courriels commerciaux entrants sont automatiquement redirigés, réduisant la charge manuelle de 70 %. Dans l'application mobile, des suggestions de paiement prédictives aident les clients à gérer leurs factures récurrentes et leurs virements. La banque a également publié un document sur l'éthique des données, qu'elle présente comme unique au Canada. L'enjeu dépasse la simple modernisation informatique : il s'agit de déployer l'IA à l'échelle d'un grand groupe financier sans créer de risques opérationnels ou réglementaires supplémentaires. Pour les équipes techniques, l'automatisation de la génération de code s'accompagne de contrôles de sécurité et d'auditabilité imposés par l'environnement réglementaire bancaire. Pour les employés, chaque usage de l'IA est soumis à une revue interne fondée sur des critères d'équité, de transparence et de responsabilité avant tout déploiement. Une formation obligatoire et des attestations annuelles complètent le dispositif. Tim Clark, directeur des systèmes d'information du groupe, souligne que l'objectif est de permettre aux collaborateurs d'utiliser la technologie avec confiance, tandis que Phil Thomas, directeur de la stratégie, y voit un levier pour recentrer les équipes sur des tâches à plus forte valeur ajoutée. Scotiabank s'inscrit dans une tendance lourde du secteur financier mondial, où les grandes banques cherchent à industrialiser l'IA tout en répondant aux exigences croissantes des régulateurs. La particularité de l'approche canadienne réside dans la formalisation publique de la gouvernance, une posture que peu d'établissements ont adoptée avant d'y être contraints. La banque reconnaît elle-même que l'architecture précise, les coûts, la stratégie de modèles et les benchmarks externes n'ont pas été divulgués, ce qui rend le retour sur investissement global difficile à évaluer. Scotiabank envisage néanmoins d'étendre le dispositif à des agents autonomes pour la recherche et l'analyse, avec des capacités décrites comme "plus autonomes, contextuelles et orientées vers l'action". Si les gains actuels se confirment, la banque devrait accélérer ce déploiement dans l'ensemble de ses métiers.

BusinessOpinion
1 source