Aller au contenu principal
Tokenmaxxing : quand les salariés d’Amazon brûlent des tokens pour se faire bien voir
SociétéNext INpact1h

Tokenmaxxing : quand les salariés d’Amazon brûlent des tokens pour se faire bien voir

Résumé IASource uniqueImpact UE
Source originale ↗·

Des employés d'Amazon utilisent MeshClaw, un outil interne de déploiement d'agents IA lancé il y a quelques semaines par le groupe, non pas pour travailler plus efficacement, mais pour gonfler artificiellement leurs statistiques de consommation de tokens. MeshClaw fonctionne sur le même principe qu'OpenClaw : il permet de déployer des agents capables de trier des courriels, interagir sur Slack, déployer du code ou surveiller des applications. Selon le Financial Times, certains salariés font tourner ces agents en continu non parce qu'ils en ont besoin, mais pour afficher un usage IA élevé dans des classements internes que la direction a commencé à surveiller. Amazon s'est fixé comme objectif que 80 % de ses développeurs utilisent l'IA chaque semaine. Ce phénomène a reçu un nom : le "tokenmaxxing". Un développeur médian consomme environ 51 millions de tokens par mois selon une étude Jellyfish publiée en avril 2026, tandis que les 10 % de plus gros consommateurs dépassent 380 millions de tokens mensuels, soit un coût pouvant atteindre 700 dollars par mois aux tarifs de l'API Claude.

Ce détournement révèle les effets pervers d'une gouvernance par les métriques dans les entreprises tech. Quand un indicateur devient un critère d'évaluation implicite, il cesse de mesurer la réalité et devient une fin en soi. "Les managers regardent ces chiffres", confie un employé anonyme, "ça crée des effets pervers et certaines personnes deviennent très compétitives." L'étude Jellyfish sur 12 000 développeurs dans 200 entreprises au premier trimestre 2026 enfonce le clou : une consommation massive de tokens produit effectivement plus de code, mais ce code nécessite davantage d'allers-retours, de supervision humaine et de corrections, ce qui annule les gains de productivité supposés. À cela s'ajoute un risque de sécurité réel : MeshClaw dispose d'un accès large à des outils internes sensibles, ce qui peut provoquer des incidents graves en cas d'usage mal maîtrisé, comme l'ont déjà illustré de récentes pannes chez AWS attribuées à des agents IA.

Ce phénomène dépasse Amazon. Meta avait développé un tableau de bord interne attribuant le statut de "Token Legend" aux plus gros consommateurs de tokens, avant de le retirer sous pression, tout en maintenant un suivi officiel de l'usage IA. La pression vient du sommet : Amazon a annoncé 200 milliards de dollars de dépenses d'investissement pour 2026, en grande partie fléchés vers l'IA et les centres de données. Pour justifier ces montants astronomiques auprès des actionnaires, les directions poussent les équipes à produire des preuves d'usage, créant une mécanique où l'apparence d'adoption compte autant que l'adoption réelle. L'enjeu, désormais, est de distinguer la valeur générée par l'IA de la valeur simulée pour complaire aux tableaux de bord.

Impact France/UE

Les entreprises tech françaises et européennes qui adoptent des métriques de suivi de l'usage IA s'exposent aux mêmes effets pervers de gouvernance par les indicateurs documentés ici.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les salariés d'Amazon "tokenmaxxent" sous la pression d'utiliser les outils IA
1Ars Technica AI 

Les salariés d'Amazon "tokenmaxxent" sous la pression d'utiliser les outils IA

Des employés d'Amazon ont recours à une pratique baptisée "tokenmaxxing" : ils utilisent l'outil d'intelligence artificielle interne de l'entreprise pour automatiser des tâches superflues, dans le seul but de gonfler artificiellement leurs statistiques d'utilisation de l'IA. Selon trois sources proches du dossier, Amazon a déployé à grande échelle ces dernières semaines son produit maison "MeshClaw", qui permet aux salariés de créer des agents capables de se connecter aux logiciels professionnels et d'effectuer des actions en leur nom. Certains collègues utilisent ce système pour générer de l'activité IA supplémentaire et inutile, augmentant ainsi leur consommation de tokens, ces unités de données traitées par les modèles de langage. Le phénomène révèle une tension croissante dans les grandes entreprises tech entre la pression managériale d'adopter l'IA et l'utilisation réelle et productive de ces outils. Lorsque les indicateurs de performance incluent la fréquence d'utilisation de l'IA, les employés sont incités à optimiser ces métriques plutôt que les résultats concrets de leur travail. Cela soulève des questions sérieuses sur la fiabilité des données d'adoption interne que les directions utilisent pour justifier leurs investissements technologiques. Amazon a massivement misé sur l'intelligence artificielle ces derniers mois, intégrant des outils IA dans ses processus internes et exerçant une pression visible sur ses équipes pour démontrer leur adhésion à cette transformation. Cette dynamique n'est pas propre à Amazon : dans toute la Silicon Valley, les entreprises cherchent à mesurer le retour sur investissement de l'IA, créant des systèmes d'incitation qui peuvent se retourner contre leurs propres objectifs.

UELes directions d'entreprises françaises et européennes qui mesurent l'adoption de l'IA via des indicateurs de fréquence d'utilisation s'exposent au même biais de contournement métrique, fragilisant la fiabilité de leurs données d'investissement.

SociétéActu
1 source
Sur Amazon, les faux guides de jeux générés par IA se multiplient
2Frandroid 

Sur Amazon, les faux guides de jeux générés par IA se multiplient

Sur Amazon, des guides de jeux vidéo générés par intelligence artificielle prolifèrent dans le catalogue de la plateforme, trompant des joueurs qui cherchent de l'aide pour progresser dans leurs titres favoris. Ces ouvrages, produits en masse à faible coût grâce à des outils d'IA générative, sont vendus plusieurs euros voire dizaines d'euros, alors qu'ils contiennent des informations incorrectes, inventées ou périmées. Les auteurs de ces arnaques exploitent la facilité avec laquelle Amazon permet à n'importe qui de publier via son programme Kindle Direct Publishing. L'impact est direct pour les acheteurs : un joueur qui paie pour un guide sur un RPG complexe ou un jeu de stratégie se retrouve avec un document truffé d'erreurs, de niveaux inexistants ou de conseils inutilisables. Au-delà de la frustration individuelle, ce phénomène pollue l'écosystème Amazon : les vrais guides, rédigés par des spécialistes, se noient dans un océan de contenu généré automatiquement, et les avis clients deviennent peu fiables car les acheteurs découvrent la supercherie trop tard. Ce problème s'inscrit dans une tendance plus large de production de contenu IA bas de gamme qui inonde les plateformes de vente en ligne depuis l'essor de ChatGPT et de ses concurrents à partir de 2023. Amazon a déjà tenté de limiter le nombre de publications quotidiennes par auteur sur KDP, sans parvenir à endiguer le flot. La question de la responsabilité de la plateforme dans la modération de ce type de contenu trompeur reste entière, alors que les régulateurs européens examinent de près les pratiques des grandes marketplaces.

UELes régulateurs européens examinent les pratiques des grandes marketplaces face à la prolifération de contenu IA trompeur, ce qui pourrait accélérer les obligations de modération éditoriale sous le Digital Services Act (DSA).

SociétéOpinion
1 source
Le tokenmaxxing commence peut-être déjà à reculer
3The Information AI 

Le tokenmaxxing commence peut-être déjà à reculer

Chez Meta, un phénomène insolite a récemment été mis en lumière par The Information : des employés se livrent à une compétition interne baptisée "Claudeonomics", un classement mesurant qui consomme le plus de tokens d'IA dans son travail quotidien. Le record récent appartient à un employé ayant utilisé 328,5 milliards de tokens sur une période de 30 jours, ce qui représente une facture potentielle de près de 2 millions de dollars aux tarifs publics d'Anthropic. Ce comportement, surnommé "tokenmaxxing", consiste à maximiser délibérément sa consommation d'IA pour signaler son implication et sa productivité à l'entreprise. Ce phénomène révèle une fracture croissante entre les géants technologiques ultra-capitalisés et le reste des entreprises. Si Meta peut absorber des dépenses d'IA colossales pour ses ingénieurs, la grande majorité des organisations ne dispose pas de tels budgets. Le tokenmaxxing risque ainsi de devenir un indicateur trompeur de performance, encourageant une consommation artificielle plutôt qu'une utilisation réellement productive des outils d'IA. Ce cas intervient dans un contexte où les entreprises tech cherchent à quantifier l'adoption interne de l'IA et à mesurer le retour sur investissement de leurs abonnements aux modèles comme Claude d'Anthropic ou GPT d'OpenAI. La course aux classements internes illustre une tension plus profonde : comment distinguer l'usage pertinent de l'IA d'une simple démonstration ostentatoire ? À mesure que les coûts des modèles diminuent, cette dynamique pourrait évoluer, mais pour l'instant, le tokenmaxxing reste un luxe réservé aux plus grands acteurs de la Silicon Valley.

SociétéOpinion
1 source
Ce que les données révèlent vraiment sur l'IA et votre emploi
4MIT Technology Review 

Ce que les données révèlent vraiment sur l'IA et votre emploi

Au sein de la Silicon Valley, l'idée d'une apocalypse de l'emploi causée par l'IA est désormais traitée comme une certitude. Dario Amodei, PDG d'Anthropic, a décrit l'IA comme "un substitut général de la main-d'oeuvre humaine" capable de réaliser tous les emplois en moins de cinq ans. Une chercheuse en impacts sociétaux chez Anthropic a quant à elle évoqué une possible récession à court terme et "l'effondrement de l'échelle des débuts de carrière". Ces déclarations alimentent une anxiété croissante chez les travailleurs, au point de renforcer les mouvements réclamant un moratoire sur la construction de centres de données. Alex Imas, économiste à l'Université de Chicago, a accepté de faire le point sur ce que l'on sait réellement, et surtout sur ce que l'on ignore. Son constat est sévère : les outils actuels pour prédire l'impact de l'IA sur l'emploi sont "lamentables". La mesure la plus utilisée, le taux d'"exposition" d'un métier à l'IA, consiste à comptabiliser combien de tâches qui le composent pourraient être automatisées. C'est la méthode qu'OpenAI a appliquée en décembre dernier à un catalogue gouvernemental américain de milliers de tâches professionnelles, datant de 1998, constatant par exemple qu'un agent immobilier est exposé à 28 %. Anthropic a utilisé ce même référentiel en février pour analyser des millions de conversations avec Claude. Mais pour Imas, "l'exposition seule est un outil totalement inutile pour prédire les suppressions de postes" : savoir qu'une tâche peut être automatisée ne dit rien sur ce que fera concrètement l'employeur de ce gain de productivité. L'enjeu central est en réalité une question d'économie industrielle que personne ne sait encore trancher : si un développeur peut produire en un jour ce qui lui prenait trois jours grâce à l'IA, l'entreprise va-t-elle embaucher moins de développeurs ou au contraire en recruter davantage pour aller plus vite ? La réponse dépend du secteur, de la structure des marchés et de la concurrence. Dans un marché compétitif, les gains de productivité se répercutent souvent en baisse de prix, ce qui stimule la demande et donc l'emploi. Mais ce mécanisme ne s'applique pas uniformément. Imas plaide pour que les économistes collectent d'urgence des données granulaires sur la façon dont les entreprises réallouent réellement leur main-d'oeuvre après l'adoption de l'IA, car sans ces données, toute politique publique sur l'emploi reste aveugle. Le débat dépasse donc largement les prédictions catastrophistes : il appelle à une observation rigoureuse de terrain, que personne n'a encore vraiment commencée.

UELe manque de données empiriques rigoureuses sur la réallocation réelle de la main-d'oeuvre après adoption de l'IA fragilise également les politiques publiques européennes sur l'emploi et les débats autour de l'AI Act.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour