Aller au contenu principal
GitHub facturera désormais Copilot selon la consommation réelle d'IA
OutilsArs Technica AI2h

GitHub facturera désormais Copilot selon la consommation réelle d'IA

Résumé IASource uniqueImpact UE
Source originale ↗·

GitHub va introduire un système de facturation basé sur l'usage réel pour son service d'IA Copilot à partir du 1er juin 2026. Jusqu'ici, les abonnés disposaient d'un quota mensuel de "requêtes" et de "requêtes premium" consommé chaque fois qu'ils sollicitaient l'IA, quelle que soit la complexité de la tâche. La société, propriété de Microsoft, a annoncé ce changement en expliquant vouloir "mieux aligner la tarification avec l'usage réel" et assurer la viabilité financière du service face à une demande croissante en ressources de calcul.

Le problème central que GitHub cherche à résoudre est une inégalité de coût masquée par un modèle tarifaire uniforme. Une simple question posée dans le chat consomme aujourd'hui autant de quota qu'une session de programmation autonome de plusieurs heures, deux opérations dont les coûts réels d'inférence sont pourtant radicalement différents. GitHub reconnaît avoir "absorbé une grande partie des coûts d'inférence escaladants" jusqu'à présent, mais affirme que regrouper toutes les requêtes premium dans une seule catégorie "n'est plus soutenable". Pour les utilisateurs intensifs qui exploitent les capacités d'agents autonomes de Copilot, la facture pourrait donc augmenter significativement à partir de juin.

Ce virage vers la facturation à l'usage reflète une tendance plus large dans l'industrie de l'IA, où les fournisseurs de services font face à des coûts d'infrastructure GPU qui explosent à mesure que les cas d'usage se complexifient. GitHub Copilot, lancé en 2021 et devenu l'un des outils de développement assisté par IA les plus populaires au monde avec plusieurs millions d'utilisateurs, doit composer avec la généralisation des modèles d'agents capables d'exécuter des tâches longues et coûteuses en calcul. D'autres acteurs comme Cursor ou Windsurf adoptent des approches similaires. La question reste ouverte de savoir si cette transition convaincra les entreprises clientes de maintenir leurs abonnements ou les poussera à comparer plus attentivement les offres concurrentes.

Impact France/UE

Les entreprises et développeurs européens abonnés à Copilot devront auditer leurs usages avant juin 2026, sous peine d'une hausse significative des coûts pour les workflows intensifs basés sur des agents autonomes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GitHub Copilot passe à une facturation à l’usage à partir du 1er juin
1Next INpact 

GitHub Copilot passe à une facturation à l’usage à partir du 1er juin

GitHub a annoncé mardi 27 avril que son assistant de programmation Copilot basculera vers une facturation à l'usage à compter du 1er juin 2025. Le principe repose sur un système de "crédits IA" alloués selon l'abonnement souscrit : un Copilot Pro à 10 dollars par mois donnera accès à 1 000 crédits, tandis qu'un Copilot Pro+ à 39 dollars par mois en offrira 3 900. Une fois l'enveloppe épuisée, l'utilisateur devra acheter des crédits supplémentaires pour continuer à accéder aux modèles génératifs avancés. En parallèle, Microsoft a annoncé le déploiement de Copilot auprès des 743 000 employés d'Accenture, le plus grand déploiement externe jamais annoncé pour l'outil. Ce changement marque la fin d'un modèle hybride qui combinait abonnement fixe et quota de "requêtes premium", dans lequel GitHub absorbait une part croissante des coûts d'inférence. La plateforme l'admet sans détour : "une simple question posée via le chat et une session de codage autonome de plusieurs heures peuvent coûter le même prix à l'utilisateur", ce qui rend l'ancien système intenable. La complétion automatique et les suggestions de code restent disponibles sans consommer de crédits, ce qui protège les usages basiques. En revanche, les développeurs qui utilisent Copilot en mode agent, sur plusieurs fichiers en continu, verront leur facture augmenter sensiblement. GitHub aligne ainsi sa tarification sur celle d'Anthropic et d'OpenAI, adoptant une logique de facturation au token qui était jusqu'ici propre aux API brutes. Cette décision s'inscrit dans une série de signaux qui se sont accumulés ces dernières semaines. Le 21 avril, GitHub avait déjà suspendu les nouvelles souscriptions individuelles, officiellement pour mieux gérer la charge. La montée en puissance des agents de codage autonomes, capables de travailler pendant des heures sur une codebase entière, a profondément déséquilibré l'économie des abonnements forfaitaires. Ces agents consomment des volumes de tokens sans commune mesure avec un simple chat, et leur adoption rapide a rendu inévitable une révision du modèle économique. Pour GitHub et Microsoft, l'enjeu est aussi stratégique : maintenir la qualité de service face à une utilisation intensive tout en retrouvant une rentabilité sur un produit qui génère des coûts d'infrastructure considérables. Les prochains mois diront si les développeurs acceptent ce passage au compteur ou se tournent vers des alternatives comme Cursor ou Windsurf, qui n'ont pas encore fait le même virage.

UELes développeurs français et européens utilisant GitHub Copilot en mode agent devront revoir leur budget ou migrer vers des alternatives, leur facture pouvant augmenter sensiblement à partir du 1er juin 2025.

OutilsOutil
1 source
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs
2Next INpact 

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

Le 30 mars 2026, plusieurs développeurs ont découvert avec stupéfaction que GitHub Copilot avait modifié leurs pull requests pour y insérer des messages promotionnels. L'agent IA de Microsoft avait ajouté, directement dans le fil de revue de code, une phrase vantant l'intégration de Copilot avec Raycast — un outil de productivité macOS et Windows — accompagnée d'un émoji éclair et d'un lien vers le site de l'éditeur. La capture d'écran publiée par le développeur australien Zach Manson a rapidement circulé sur les réseaux sociaux, déclenchant une vague d'indignation dans la communauté. Martin Woodward, vice-président en charge des relations développeurs chez GitHub, est intervenu en urgence sur X le soir même pour annoncer la désactivation immédiate de la fonctionnalité. Selon lui, le comportement problématique a été introduit le 24 mars lors d'un déploiement étendant la capacité de Copilot à intervenir sur n'importe quelle pull request à la demande d'un développeur. La réaction a été virulente parce qu'elle touche à quelque chose de fondamental : l'intégrité du code et du processus de revue. Quand un outil censé assister les développeurs commence à modifier leur espace de travail pour y glisser des recommandations commerciales — même habillées en « conseils produits » — la confiance s'effondre immédiatement. GitHub a beau nier toute intention publicitaire, la distinction est difficile à tenir lorsque le message pointe vers un produit tiers spécifique avec un lien cliquable. Pour les équipes qui utilisent les pull requests comme espace de collaboration technique, voir une IA y introduire du contenu non sollicité soulève des questions concrètes sur le contrôle de leur environnement de développement. Cette affaire s'inscrit dans un contexte plus large de tensions croissantes entre GitHub et ses utilisateurs. La plateforme avait annoncé quelques jours plus tôt une extension de la collecte de données issues des interactions avec Copilot, activée par défaut avec désactivation manuelle — un opt-out que beaucoup ont mal accueilli. Zach Manson a d'ailleurs cité la théorie de la « merdification » de Cory Doctorow pour décrire la trajectoire des plateformes tech : séduire les utilisateurs, puis monétiser leur attention au détriment de l'expérience. GitHub appartient à Microsoft depuis 2018 et doit rentabiliser ses investissements massifs dans Copilot, ce qui crée une pression structurelle vers ce type de dérives. La désactivation rapide montre que la communauté des développeurs reste capable d'imposer un recul, mais l'incident illustre à quel point la frontière entre assistance IA et intrusion commerciale peut être franchie discrètement, sous couvert d'une simple mise à jour.

UEL'extension de la collecte de données Copilot activée par défaut soulève des questions de conformité RGPD pour les développeurs et entreprises européennes utilisant GitHub.

💬 De la pub dans mes pull requests, injectée par l'outil censé m'aider, c'est exactement le genre de truc qui fait perdre confiance en une seule capture d'écran. GitHub a reculé vite, mais le mal est fait : quand tu commences à te demander si ton assistant IA travaille pour toi ou pour son éditeur, tu passes la moitié de ton attention à surveiller ses sorties. La merdification, c'est rarement un grand soir, c'est juste une feature de trop par trimestre.

OutilsOutil
1 source
ChatGPT peut désormais vous localiser pour de meilleures recommandations
3Blog du Modérateur 

ChatGPT peut désormais vous localiser pour de meilleures recommandations

OpenAI a commencé à déployer une nouvelle fonctionnalité de partage de localisation dans ChatGPT, permettant à l'assistant d'accéder à la position géographique précise de l'appareil de l'utilisateur. Concrètement, lorsqu'un utilisateur pose une question nécessitant un contexte local — recommandations de restaurants, météo, événements à proximité, horaires de commerces — ChatGPT peut désormais utiliser ces coordonnées en temps réel plutôt que de se fier à une ville déclarée manuellement ou à des indices textuels. Cette évolution change substantiellement l'utilité de ChatGPT pour les requêtes du quotidien. Jusqu'ici, l'assistant devait demander à l'utilisateur de préciser sa localisation, introduisant une friction qui le désavantageait face à des assistants vocaux comme Siri ou Google Assistant, nativement intégrés au système. Avec l'accès GPS, ChatGPT peut concurrencer directement ces outils sur le terrain des usages locaux et mobiles. Cette fonctionnalité s'inscrit dans une stratégie plus large d'OpenAI visant à transformer ChatGPT en assistant personnel polyvalent, capable de répondre à des besoins contextuels sans configuration préalable. La question de la confidentialité reste centrale : OpenAI devra préciser comment ces données de localisation sont stockées, utilisées et si elles alimentent l'entraînement des modèles — un sujet sensible à l'heure où les régulateurs européens scrutent de près les pratiques des grands acteurs de l'IA.

UELes autorités européennes devront examiner la conformité de cette collecte de données de localisation au RGPD, notamment sur le stockage et l'usage potentiel pour l'entraînement des modèles.

OutilsOutil
1 source
OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA
4Le Big Data 

OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA

OpenAI a publié le 21 avril 2026 un nouvel outil open-source baptisé Euphony, conçu pour visualiser les données de chat et les journaux de sessions Codex. Concrètement, l'outil permet aux développeurs de coller une URL publique ou d'importer un fichier local, et Euphony convertit automatiquement ces données brutes en une interface de messagerie lisible dans le navigateur. L'outil prend en charge le rendu Markdown complet, y compris les formules mathématiques et les blocs de code, une fonction de traduction intégrée pour les sessions en langue étrangère, ainsi qu'un mode éditeur permettant de modifier directement le texte et les métadonnées sans changer d'environnement. Le filtrage par requêtes JMESPath permet de trier des milliers de conversations selon des critères très précis, tandis qu'un mode Focus masque les appels d'outils techniques pour ne conserver que le dialogue essentiel. Les développeurs peuvent également partager un lien direct vers un message spécifique et annoter les réponses avec des étiquettes colorées personnalisables. Cet outil répond à un problème concret et quotidien pour quiconque travaille avec des LLMs en production : les logs de sessions d'IA sont volumineux, structurés de façon peu intuitive, et difficiles à analyser manuellement. En rendant ces données navigables visuellement, Euphony accélère les cycles d'évaluation et de débogage. La visualisation des jetons Harmony, qui montre comment le modèle segmente chaque mot, apporte une transparence supplémentaire sur le fonctionnement interne du pipeline. Pour les équipes qui construisent ou affinent des agents IA, la possibilité d'annoter, de filtrer et de partager des extraits précis transforme un outil de consultation en véritable tableau de bord d'évaluation collaborative. OpenAI positionne Euphony dans un contexte où Codex, son moteur de génération de code, est de plus en plus utilisé pour des tâches complexes et des sessions longues générant des volumes importants de données conversationnelles. La publication en open-source signale une stratégie d'ouverture vers la communauté développeur, cohérente avec d'autres initiatives récentes de la société visant à rendre l'écosystème Codex plus accessible. En intégrant nativement le contenu système et les métadonnées développeur dans l'interface, l'outil comble un angle mort des environnements de développement actuels, où l'inspection du contexte complet d'une session reste fastidieuse. La prochaine étape logique serait une intégration directe dans les environnements de développement ou les plateformes d'évaluation de modèles, un marché où des acteurs comme LangSmith ou Weights & Biases sont déjà bien établis.

OutilsOutil
1 source