Aller au contenu principal
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs
OutilsNext INpact2h

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

1 source couvre ce sujet·Source originale ↗·

Le 30 mars 2026, plusieurs développeurs ont découvert avec stupéfaction que GitHub Copilot avait modifié leurs pull requests pour y insérer des messages promotionnels. L'agent IA de Microsoft avait ajouté, directement dans le fil de revue de code, une phrase vantant l'intégration de Copilot avec Raycast — un outil de productivité macOS et Windows — accompagnée d'un émoji éclair et d'un lien vers le site de l'éditeur. La capture d'écran publiée par le développeur australien Zach Manson a rapidement circulé sur les réseaux sociaux, déclenchant une vague d'indignation dans la communauté. Martin Woodward, vice-président en charge des relations développeurs chez GitHub, est intervenu en urgence sur X le soir même pour annoncer la désactivation immédiate de la fonctionnalité. Selon lui, le comportement problématique a été introduit le 24 mars lors d'un déploiement étendant la capacité de Copilot à intervenir sur n'importe quelle pull request à la demande d'un développeur.

La réaction a été virulente parce qu'elle touche à quelque chose de fondamental : l'intégrité du code et du processus de revue. Quand un outil censé assister les développeurs commence à modifier leur espace de travail pour y glisser des recommandations commerciales — même habillées en « conseils produits » — la confiance s'effondre immédiatement. GitHub a beau nier toute intention publicitaire, la distinction est difficile à tenir lorsque le message pointe vers un produit tiers spécifique avec un lien cliquable. Pour les équipes qui utilisent les pull requests comme espace de collaboration technique, voir une IA y introduire du contenu non sollicité soulève des questions concrètes sur le contrôle de leur environnement de développement.

Cette affaire s'inscrit dans un contexte plus large de tensions croissantes entre GitHub et ses utilisateurs. La plateforme avait annoncé quelques jours plus tôt une extension de la collecte de données issues des interactions avec Copilot, activée par défaut avec désactivation manuelle — un opt-out que beaucoup ont mal accueilli. Zach Manson a d'ailleurs cité la théorie de la « merdification » de Cory Doctorow pour décrire la trajectoire des plateformes tech : séduire les utilisateurs, puis monétiser leur attention au détriment de l'expérience. GitHub appartient à Microsoft depuis 2018 et doit rentabiliser ses investissements massifs dans Copilot, ce qui crée une pression structurelle vers ce type de dérives. La désactivation rapide montre que la communauté des développeurs reste capable d'imposer un recul, mais l'incident illustre à quel point la frontière entre assistance IA et intrusion commerciale peut être franchie discrètement, sous couvert d'une simple mise à jour.

Impact France/UE

L'extension de la collecte de données Copilot activée par défaut soulève des questions de conformité RGPD pour les développeurs et entreprises européennes utilisant GitHub.

À lire aussi

L'IA envahit les applications météo
1Wired AI 

L'IA envahit les applications météo

Les grandes applications météo — de Weather.com à Météo-France en passant par AccuWeather et Apple Weather — intègrent désormais des modèles d'intelligence artificielle au cœur de leurs prévisions. Des systèmes comme GraphCast de Google DeepMind, Pangu-Weather de Huawei ou Aurora de Microsoft ont démontré en 2023-2024 qu'ils pouvaient rivaliser, voire surpasser, les modèles numériques traditionnels comme l'ECMWF européen sur certains horizons de prévision — notamment à 10 jours. Ces outils s'entraînent sur des décennies de données atmosphériques et produisent des prévisions en quelques secondes là où les anciens modèles nécessitaient des heures de calcul. Pour les utilisateurs, l'impact est concret : des prévisions potentiellement plus précises sur la trajectoire des tempêtes, les épisodes de chaleur ou les précipitations localisées. Mais la façon dont cette technologie est présentée varie considérablement d'une application à l'autre — certaines mettent en avant l'IA comme argument marketing sans transparence sur la méthode, d'autres l'intègrent silencieusement dans leur pipeline. Cette vague s'inscrit dans une compétition intense entre géants tech et acteurs météo historiques. Les agences gouvernementales comme la NOAA ou Météo-France développent leurs propres modèles hybrides, tandis que des startups spécialisées attirent des financements importants. La question centrale reste celle de la fiabilité dans les cas extrêmes — là où les enjeux de sécurité publique sont les plus élevés.

UEMétéo-France développe ses propres modèles hybrides IA face aux géants tech, avec des enjeux directs pour la précision des alertes météo en France lors des épisodes extrêmes.

OutilsOutil
1 source
BlueSky lance Attie : une IA pour créer ton propre réseau social
2Le Big Data 

BlueSky lance Attie : une IA pour créer ton propre réseau social

Le 28 mars 2026, lors de la conférence Atmosphere, Jay Graber (PDG de Bluesky) et Paul Frazee (CTO) ont dévoilé Attie, un outil d'intelligence artificielle permettant à n'importe quel utilisateur de construire son propre réseau social personnalisé en langage naturel. Concrètement, il suffit de décrire en une phrase le type de contenu souhaité — par exemple des articles sur le folklore celtique, la mythologie et la musique traditionnelle — pour qu'Attie génère automatiquement un fil d'actualité sur mesure. L'outil repose sur la technologie Claude d'Anthropic et s'appuie sur le protocole AT, la base open source qui sous-tend l'infrastructure de Bluesky. Il se présente comme une application sociale agentique : l'IA ne se contente pas de produire du contenu, elle organise l'information selon les intentions explicites de l'utilisateur, sans ligne de code requise. L'enjeu est direct : Attie s'attaque frontalement au modèle dominant des grandes plateformes comme X ou Instagram, où des algorithmes opaques dictent ce que chacun voit, en optimisant pour l'engagement plutôt que pour la pertinence. Jay Graber pointe une explosion de contenus peu fiables et un manque de transparence structurel dans ces systèmes. Avec Attie, l'utilisateur reprend la main — il choisit ses sources, définit ses priorités, et n'est plus spectateur passif d'un flux conçu pour l'accrocher. Pour les professionnels de l'information, les créateurs de contenu et les communautés de niche, cela représente une rupture concrète : accéder à un espace d'information réellement calibré sur ses besoins, sans intermédiaire algorithmique imposé. Bluesky s'est imposé comme l'alternative décentralisée la plus sérieuse à X depuis le rachat de Twitter par Elon Musk, attirant plusieurs millions d'utilisateurs en quête d'une plateforme plus ouverte. Le protocole AT, sur lequel Attie est construit, est conçu pour être entièrement transparent et interopérable — ce qui distingue fondamentalement l'approche de celle des silos fermés que sont Meta ou X. Attie s'inscrit dans une tendance plus large des interfaces en langage naturel qui éliminent la barrière technique entre l'utilisateur et la personnalisation avancée, là où il fallait auparavant des mois de développement. La vraie question reste celle du passage à l'échelle : si l'outil reste une curiosité pour early adopters technophiles, l'impact sera limité. Mais si Bluesky parvient à démocratiser cette approche, les réseaux sociaux pourraient évoluer vers des architectures modulaires où chaque utilisateur devient, en quelques mots, l'éditeur de son propre média.

UEConstruit sur un protocole ouvert et interopérable, Attie offre aux utilisateurs européens une alternative concrète aux algorithmes opaques des plateformes américaines, en cohérence avec les objectifs européens de transparence algorithmique et de souveraineté numérique.

OutilsOutil
1 source
Reddit et Wikipédia dans l’IA, les signaux à interpréter avec prudence
3Le Big Data 

Reddit et Wikipédia dans l’IA, les signaux à interpréter avec prudence

Reddit et Wikipédia dominent les classements de citations dans les réponses générées par les intelligences artificielles — un constat largement relayé par des outils comme Semrush et Scrunch AI, et abondamment commenté sur LinkedIn. Ces plateformes apparaissent en tête des sources les plus fréquemment citées par les grands modèles de langage (LLM) sur des centaines de milliers de requêtes analysées. Mais derrière ces chiffres agrégés, les données révèlent une réalité plus nuancée : selon l'analyse d'Alex Birkett pour Search Engine Land, Reddit et Wikipédia captent autant de citations parce qu'ils couvrent un spectre thématique immense, s'étendant sur des millions de sujets allant de la culture populaire aux conseils consommateurs. Sur un client B2B suivi via plus de 300 requêtes personnalisées, Scrunch AI a constaté que la grande majorité des mentions provenait de seulement deux fils de discussion Reddit spécifiques — loin du phénomène systémique que les chiffres macro laissent supposer. Par ailleurs, 80 % des fils Reddit cités par les IA comptent moins de 20 votes positifs, et l'âge moyen d'une publication citée atteint environ 900 jours. Ce que cela change concrètement pour les équipes marketing et SEO est considérable. Beaucoup perçoivent Reddit comme une opportunité facile à exploiter dans une stratégie d'optimisation pour les IA génératives — ce que l'on appelle le GEO (Generative Engine Optimization). Mais les modèles ne citent pas les contenus viraux récents : ils privilégient un consensus historique construit sur des années d'échanges authentiques, de votes et de débats collectifs. Aucune équipe ne peut reproduire ce niveau de confiance en quelques mois de publications ciblées. De plus, les LLM ne reprennent pas les textes mot pour mot — ils paraphrasent et mélangent, avec un score de similarité sémantique mesuré à seulement 0,53 — ce qui dilue inévitablement le message précis d'une marque dans un agrégat neutre de commentaires anonymes. La tentation de manipuler ces canaux se heurte aussi à des garde-fous humains solides. Sur Wikipédia, une étude de l'université de Princeton a montré que des contributions générées par IA pour des pages d'entreprises ont été rapidement supprimées par les modérateurs, jugées trop publicitaires et insuffisamment sourcées. Les communautés Reddit et Wikipédia maintiennent une rigueur éditoriale que les stratégies d'optimisation court-termistes ne peuvent contourner. Rand Fishkin a par ailleurs documenté les incohérences des recommandations des IA sur de nombreux sujets, soulignant que le contrôle narratif reste une illusion. La leçon pour les professionnels du marketing : lire ces signaux macro avec recul, travailler sur une présence authentique et durable dans les communautés concernées, et cesser de traiter Reddit comme un levier rapide à activer.

OutilsOpinion
1 source
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
4The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source