Aller au contenu principal
GitHub Copilot passe à une facturation à l’usage à partir du 1er juin
OutilsNext INpact4h

GitHub Copilot passe à une facturation à l’usage à partir du 1er juin

Résumé IASource uniqueImpact UE
Source originale ↗·

GitHub a annoncé mardi 27 avril que son assistant de programmation Copilot basculera vers une facturation à l'usage à compter du 1er juin 2025. Le principe repose sur un système de "crédits IA" alloués selon l'abonnement souscrit : un Copilot Pro à 10 dollars par mois donnera accès à 1 000 crédits, tandis qu'un Copilot Pro+ à 39 dollars par mois en offrira 3 900. Une fois l'enveloppe épuisée, l'utilisateur devra acheter des crédits supplémentaires pour continuer à accéder aux modèles génératifs avancés. En parallèle, Microsoft a annoncé le déploiement de Copilot auprès des 743 000 employés d'Accenture, le plus grand déploiement externe jamais annoncé pour l'outil.

Ce changement marque la fin d'un modèle hybride qui combinait abonnement fixe et quota de "requêtes premium", dans lequel GitHub absorbait une part croissante des coûts d'inférence. La plateforme l'admet sans détour : "une simple question posée via le chat et une session de codage autonome de plusieurs heures peuvent coûter le même prix à l'utilisateur", ce qui rend l'ancien système intenable. La complétion automatique et les suggestions de code restent disponibles sans consommer de crédits, ce qui protège les usages basiques. En revanche, les développeurs qui utilisent Copilot en mode agent, sur plusieurs fichiers en continu, verront leur facture augmenter sensiblement. GitHub aligne ainsi sa tarification sur celle d'Anthropic et d'OpenAI, adoptant une logique de facturation au token qui était jusqu'ici propre aux API brutes.

Cette décision s'inscrit dans une série de signaux qui se sont accumulés ces dernières semaines. Le 21 avril, GitHub avait déjà suspendu les nouvelles souscriptions individuelles, officiellement pour mieux gérer la charge. La montée en puissance des agents de codage autonomes, capables de travailler pendant des heures sur une codebase entière, a profondément déséquilibré l'économie des abonnements forfaitaires. Ces agents consomment des volumes de tokens sans commune mesure avec un simple chat, et leur adoption rapide a rendu inévitable une révision du modèle économique. Pour GitHub et Microsoft, l'enjeu est aussi stratégique : maintenir la qualité de service face à une utilisation intensive tout en retrouvant une rentabilité sur un produit qui génère des coûts d'infrastructure considérables. Les prochains mois diront si les développeurs acceptent ce passage au compteur ou se tournent vers des alternatives comme Cursor ou Windsurf, qui n'ont pas encore fait le même virage.

Impact France/UE

Les développeurs français et européens utilisant GitHub Copilot en mode agent devront revoir leur budget ou migrer vers des alternatives, leur facture pouvant augmenter sensiblement à partir du 1er juin 2025.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs
1Next INpact 

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

Le 30 mars 2026, plusieurs développeurs ont découvert avec stupéfaction que GitHub Copilot avait modifié leurs pull requests pour y insérer des messages promotionnels. L'agent IA de Microsoft avait ajouté, directement dans le fil de revue de code, une phrase vantant l'intégration de Copilot avec Raycast — un outil de productivité macOS et Windows — accompagnée d'un émoji éclair et d'un lien vers le site de l'éditeur. La capture d'écran publiée par le développeur australien Zach Manson a rapidement circulé sur les réseaux sociaux, déclenchant une vague d'indignation dans la communauté. Martin Woodward, vice-président en charge des relations développeurs chez GitHub, est intervenu en urgence sur X le soir même pour annoncer la désactivation immédiate de la fonctionnalité. Selon lui, le comportement problématique a été introduit le 24 mars lors d'un déploiement étendant la capacité de Copilot à intervenir sur n'importe quelle pull request à la demande d'un développeur. La réaction a été virulente parce qu'elle touche à quelque chose de fondamental : l'intégrité du code et du processus de revue. Quand un outil censé assister les développeurs commence à modifier leur espace de travail pour y glisser des recommandations commerciales — même habillées en « conseils produits » — la confiance s'effondre immédiatement. GitHub a beau nier toute intention publicitaire, la distinction est difficile à tenir lorsque le message pointe vers un produit tiers spécifique avec un lien cliquable. Pour les équipes qui utilisent les pull requests comme espace de collaboration technique, voir une IA y introduire du contenu non sollicité soulève des questions concrètes sur le contrôle de leur environnement de développement. Cette affaire s'inscrit dans un contexte plus large de tensions croissantes entre GitHub et ses utilisateurs. La plateforme avait annoncé quelques jours plus tôt une extension de la collecte de données issues des interactions avec Copilot, activée par défaut avec désactivation manuelle — un opt-out que beaucoup ont mal accueilli. Zach Manson a d'ailleurs cité la théorie de la « merdification » de Cory Doctorow pour décrire la trajectoire des plateformes tech : séduire les utilisateurs, puis monétiser leur attention au détriment de l'expérience. GitHub appartient à Microsoft depuis 2018 et doit rentabiliser ses investissements massifs dans Copilot, ce qui crée une pression structurelle vers ce type de dérives. La désactivation rapide montre que la communauté des développeurs reste capable d'imposer un recul, mais l'incident illustre à quel point la frontière entre assistance IA et intrusion commerciale peut être franchie discrètement, sous couvert d'une simple mise à jour.

UEL'extension de la collecte de données Copilot activée par défaut soulève des questions de conformité RGPD pour les développeurs et entreprises européennes utilisant GitHub.

💬 De la pub dans mes pull requests, injectée par l'outil censé m'aider, c'est exactement le genre de truc qui fait perdre confiance en une seule capture d'écran. GitHub a reculé vite, mais le mal est fait : quand tu commences à te demander si ton assistant IA travaille pour toi ou pour son éditeur, tu passes la moitié de ton attention à surveiller ses sorties. La merdification, c'est rarement un grand soir, c'est juste une feature de trop par trimestre.

OutilsOutil
1 source
Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA
2InfoQ AI 

Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA

Vercel a mis en open source json-render, un nouveau framework de génération d'interfaces utilisateur piloté par l'intelligence artificielle. Publié sous licence Apache 2.0, cet outil permet à des modèles de langage de composer des interfaces graphiques structurées à partir d'instructions en langage naturel. Concrètement, un développeur définit un catalogue de composants — boutons, formulaires, cartes, listes — et le modèle d'IA sélectionne et assemble ces blocs selon le contexte de la requête. Le framework est compatible avec plusieurs environnements frontend, ce qui lui confère une portée technique large dès sa sortie. L'enjeu principal est de permettre aux applications d'IA de ne plus se limiter à du texte brut, mais de produire des interfaces dynamiques et contextuelles sans intervention manuelle d'un développeur à chaque étape. Pour les équipes qui construisent des agents ou des assistants intégrés à des produits web, cela ouvre la voie à des expériences utilisateurs generatives : l'interface s'adapte à la demande en temps réel, réduisant le besoin de coder chaque scénario à l'avance. La sortie de json-render intervient dans un contexte de foisonnement autour des « generative UI », un concept popularisé notamment par Vercel lui-même avec sa bibliothèque AI SDK et les React Server Components. La communauté accueille l'initiative avec un mélange d'enthousiasme et de réserve : certains saluent la simplicité de l'approche, d'autres pointent ses divergences avec des standards existants comme les spécifications de composants structurés déjà portées par d'autres acteurs. La question de la compatibilité et de la standardisation dans l'écosystème reste ouverte.

OutilsOutil
1 source
Génération SQL à partir de texte : une approche économique avec Amazon Nova Micro et Bedrock
3AWS ML Blog 

Génération SQL à partir de texte : une approche économique avec Amazon Nova Micro et Bedrock

Amazon Web Services propose une nouvelle approche pour déployer des modèles de langage spécialisés dans la génération de requêtes SQL à partir du langage naturel, en combinant l'optimisation LoRA (Low-Rank Adaptation) avec l'inférence serverless d'Amazon Bedrock. Le modèle ciblé est Amazon Nova Micro, un modèle fondation léger disponible sur Bedrock. La solution a été testée sur un volume de 22 000 requêtes mensuelles pour un coût de seulement 0,80 dollar par mois, contre des dépenses bien supérieures avec une infrastructure hébergée en permanence. Deux chemins d'implémentation distincts sont proposés : l'un via la personnalisation gérée d'Amazon Bedrock, l'autre via des jobs d'entraînement Amazon SageMaker AI pour un contrôle plus fin des hyperparamètres. Les deux options convergent vers le même pipeline de déploiement sur Bedrock en inférence à la demande. Le jeu de données utilisé pour la démonstration est sql-create-context, une combinaison des datasets WikiSQL et Spider comprenant plus de 78 000 exemples de questions en langage naturel associées à des requêtes SQL de complexité variable. L'enjeu principal est économique : les modèles fine-tunés nécessitent traditionnellement une infrastructure dédiée tournant en continu, même en l'absence de trafic, ce qui génère des coûts fixes importants. Le modèle pay-per-token d'Amazon Bedrock élimine ce gaspillage en ne facturant que les tokens réellement traités. Pour les entreprises avec des dialectes SQL maison ou des schémas métier très spécifiques, cette combinaison rend accessible la personnalisation des LLMs sans engager de budget infrastructure significatif. Les équipes techniques gagnent également en simplicité opérationnelle : pas de gestion de serveurs, pas de scaling manuel, pas de surveillance d'infrastructure GPU. La génération SQL par IA est un cas d'usage critique en entreprise, car elle permet à des utilisateurs non-techniques d'interroger des bases de données en langage naturel. Les modèles généralistes gèrent bien le SQL standard, mais échouent sur les dialectes propriétaires ou les schémas complexes propres à chaque organisation. Le fine-tuning résout ce problème, mais introduisait jusqu'ici un compromis coûteux. AWS positionne ici Bedrock comme une infrastructure mutualisée capable d'héberger des adaptateurs LoRA à la demande, une approche qui pourrait devenir un standard pour les déploiements d'IA spécialisée à faible volume. La maturité croissante des outils de personnalisation cloud laisse entrevoir une généralisation de ce modèle économique à d'autres tâches NLP d'entreprise.

UELes entreprises européennes hébergées sur AWS peuvent adopter cette architecture serverless pour réduire leurs coûts de déploiement de modèles SQL spécialisés, Bedrock étant disponible dans les régions EU.

OutilsOutil
1 source
Déploiements par cas d'usage sur SageMaker JumpStart
4AWS ML Blog 

Déploiements par cas d'usage sur SageMaker JumpStart

Amazon a annoncé le lancement des déploiements optimisés sur SageMaker JumpStart, une nouvelle fonctionnalité qui permet aux entreprises utilisant AWS de configurer leurs modèles d'intelligence artificielle en fonction de cas d'usage précis plutôt que de simples paramètres techniques génériques. Disponible dès maintenant dans SageMaker Studio, cette mise à jour concerne une trentaine de modèles au lancement, dont plusieurs variantes de Meta Llama 3.1 et 3.2 (de 1B à 70B paramètres), Mistral 7B et Mistral Small 24B, les modèles Qwen3 d'Alibaba (jusqu'à 32B), Phi-3 de Microsoft, Gemma de Google et Falcon3 de TII. Les utilisateurs choisissent d'abord un cas d'usage textuel, rédaction générative, interaction de type chat, résumé de contenu, questions-réponses, puis sélectionnent une contrainte d'optimisation parmi quatre options : coût, débit, latence ou performance équilibrée. Une configuration de déploiement préconfigurée est alors générée automatiquement pour l'endpoint SageMaker. Ce changement répond à une limite concrète du système précédent : JumpStart proposait jusque-là de configurer les déploiements selon le nombre d'utilisateurs simultanés attendus, avec visibilité sur la latence P50, le temps avant le premier token (TTFT) et le débit en tokens par seconde. Ce modèle était utile pour des scénarios généralistes, mais ignorait que les performances optimales varient radicalement selon le type de tâche. Un système de résumé de documents longs n'a pas les mêmes besoins qu'un chatbot temps réel ou qu'un pipeline de génération de contenu en batch. En exposant directement ces dimensions aux équipes produit et data, AWS réduit la friction entre la sélection d'un modèle et sa mise en production effective, sans exiger d'expertise fine en infrastructure GPU ni en tuning de serving. Cette évolution s'inscrit dans la compétition acharnée que se livrent les grands fournisseurs cloud, AWS, Google Cloud et Microsoft Azure, pour capter les budgets d'inférence IA des entreprises. SageMaker JumpStart existe depuis plusieurs années comme point d'entrée vers les modèles pré-entraînés sur AWS, mais la plateforme cherche à monter en valeur face à des alternatives comme Vertex AI Model Garden ou Azure AI Studio qui proposent également des expériences de déploiement guidées. Le support des modèles image et vidéo est annoncé comme prochaine étape, et la liste des modèles compatibles est présentée comme amenée à s'élargir rapidement. Pour les entreprises déjà dans l'écosystème AWS, cette simplification pourrait accélérer les cycles de mise en production de modèles open-source sans passer par des équipes MLOps dédiées.

UELes entreprises européennes déployant des modèles open-source sur AWS peuvent réduire leur dépendance aux équipes MLOps grâce à cette simplification du cycle de mise en production.

OutilsOutil
1 source