Aller au contenu principal
Actualité : GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA, sauf si vous refusez
ÉthiqueLes Numériques IA6sem

Actualité : GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA, sauf si vous refusez

Résumé IASource uniqueImpact UE
Source originale ↗·

Microsoft s'apprête à utiliser les données des utilisateurs de GitHub Copilot pour entraîner ses modèles d'intelligence artificielle. La firme de Redmond a discrètement mis à jour ses conditions d'utilisation pour introduire cette collecte de données, activée par défaut — les utilisateurs devront explicitement refuser s'ils souhaitent en être exemptés.

Cette décision s'inscrit dans la stratégie de Microsoft de rentabiliser son acquisition de GitHub en 2018 pour 7,5 milliards de dollars. Avec des dizaines de millions de développeurs actifs sur la plateforme, les données de code, de prompts et d'interactions représentent un corpus d'entraînement d'une valeur considérable pour améliorer GitHub Copilot et les modèles sous-jacents développés en partenariat avec OpenAI.

Le mécanisme retenu est celui de l'opt-out plutôt que de l'opt-in, ce qui signifie que la collecte est consentie par défaut pour l'ensemble des abonnés. Cette approche, légalement encadrée mais critiquée par les défenseurs de la vie privée, maximise le volume de données collectées. Les utilisateurs souhaitant protéger leur code devront naviguer dans les paramètres de leur compte pour désactiver manuellement cette fonctionnalité.

Ce mouvement de Microsoft s'inscrit dans une tendance de fond : les grandes plateformes tech réorientent leurs bases d'utilisateurs existantes vers l'alimentation de leurs pipelines IA. Pour les développeurs travaillant sur des projets sensibles ou propriétaires, la vigilance s'impose — une vérification des paramètres GitHub Copilot est désormais recommandée.

Impact France/UE

Les développeurs européens utilisant GitHub Copilot doivent se désinscrire activement pour protéger leur code propriétaire ; le RGPD pourrait contraindre Microsoft à imposer un mécanisme d'opt-in explicite pour les utilisateurs de l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GitHub utilisera les données d'interaction Copilot pour entraîner ses modèles IA à partir d'avril 2026
1The Decoder 

GitHub utilisera les données d'interaction Copilot pour entraîner ses modèles IA à partir d'avril 2026

À partir du 24 avril 2026, GitHub modifie sa politique de données pour Copilot, son assistant de programmation alimenté par l'intelligence artificielle. Les interactions des utilisateurs abonnés aux plans Free, Pro et Pro+ seront désormais exploitées pour entraîner les modèles d'IA, sauf si ces derniers choisissent explicitement de se désinscrire. Ce changement opt-out — plutôt qu'opt-in — place la charge de la protection sur l'utilisateur, et non sur la plateforme. Cette décision touche potentiellement des dizaines de millions de développeurs qui utilisent Copilot au quotidien pour générer, compléter et réviser du code. En collectant des données d'interaction réelles — requêtes, suggestions acceptées ou rejetées, contexte du code — GitHub et sa maison mère Microsoft obtiennent un corpus d'entraînement d'une valeur considérable pour améliorer leurs modèles. Pour les développeurs travaillant sur des projets sensibles ou propriétaires, le risque perçu est que des fragments de code ou des pratiques internes alimentent indirectement un système partagé. GitHub s'inscrit ainsi dans une tendance plus large : plusieurs grandes plateformes tech, d'Adobe à LinkedIn, ont récemment mis à jour leurs conditions d'utilisation pour inclure des clauses similaires, déclenchant à chaque fois des controverses. Microsoft, qui a investi massivement dans OpenAI et intégré Copilot dans l'ensemble de son écosystème, a un intérêt stratégique direct à maximiser la qualité de ses modèles de code. Les utilisateurs souhaitant protéger leurs données devront se rendre dans les paramètres de leur compte avant la date butoir du 24 avril pour désactiver cette collecte.

UELe modèle opt-out de GitHub pourrait être incompatible avec le RGPD, qui impose un consentement explicite et préalable — les développeurs européens doivent agir avant le 24 avril 2026, et la CNIL ou le CEPD pourraient examiner la légalité de cette politique.

BusinessOpinion
1 source
Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google
2Siècle Digital 

Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google

Un utilisateur de l'Utah, qui souhaite conserver l'anonymat, a porté plainte contre Perplexity AI, accusant le moteur de recherche basé sur l'intelligence artificielle d'avoir transmis ses conversations privées à Meta et Google sans son consentement. Selon son avocat, l'utilisateur recourait régulièrement à Perplexity pour obtenir des conseils fiscaux, juridiques et financiers, des échanges qu'il considérait confidentiels. Des outils de tracking intégrés à la plateforme auraient permis à des tiers d'accéder à ces données sensibles, à l'insu des utilisateurs. Cette affaire soulève une question centrale pour l'ensemble du secteur des assistants IA : que deviennent les conversations des utilisateurs lorsqu'ils confient à ces outils des informations personnelles, médicales ou financières ? Contrairement à un moteur de recherche classique où l'on tape des mots-clés, Perplexity incite à formuler des questions détaillées, souvent très révélatrices de la situation personnelle de l'utilisateur. Partager ce type de données avec des régies publicitaires comme Meta ou Google représente une violation grave de la confiance placée dans ces plateformes, avec des implications directes sur la vie privée de millions de personnes. Perplexity, fondée en 2022 et valorisée à plusieurs milliards de dollars, s'est rapidement imposée comme un concurrent sérieux face à Google Search et ChatGPT. La startup avait déjà fait l'objet de critiques pour ses pratiques de scraping agressif et des accusations de plagiat envers des médias. Cette plainte s'inscrit dans un contexte plus large de régulation croissante des pratiques des entreprises d'IA autour de la collecte et du partage de données personnelles, notamment en Europe avec le RGPD et aux États-Unis où plusieurs États renforcent leurs législations sur la vie privée.

UESi des pratiques similaires de partage de conversations avec des régies publicitaires concernaient des utilisateurs européens, elles constitueraient une violation caractérisée du RGPD, exposant Perplexity à des sanctions pouvant atteindre 4 % de son chiffre d'affaires mondial.

💬 Perplexity, c'est le genre de produit qu'on conseille à ses proches parce que "c'est mieux que Google" — sauf qu'on vient de découvrir que des conversations sur ses impôts ou sa situation juridique partaient peut-être chez Meta. Le problème, c'est que les gens posent des vraies questions à ces outils, pas des mots-clés détachés de tout contexte, et la différence est énorme côté données. Faut arrêter de traiter les assistants IA comme des moteurs de recherche glorifiés : dès qu'on y colle du contexte personnel, c'est une autre catégorie de risque.

ÉthiqueActu
1 source
Meta accusée d’avoir piraté des millions de livres pour entraîner son IA
3Siècle Digital 

Meta accusée d’avoir piraté des millions de livres pour entraîner son IA

Cinq géants de l'édition mondiale, Hachette, Macmillan, McGraw-Hill, Elsevier et Cengage, ont déposé une plainte collective contre Meta devant un tribunal fédéral américain, accusant l'entreprise d'avoir utilisé des millions d'ouvrages protégés par le droit d'auteur pour entraîner ses modèles d'intelligence artificielle LLaMA. L'auteur de thrillers Scott Turow, ancien président de l'Authors Guild et avocat de formation, s'est joint à l'action. Selon les plaignants, Meta aurait eu recours à LibGen, un site pirate qui héberge illégalement des millions de livres, pour constituer son corpus d'entraînement à grande échelle, sans autorisation ni compensation. Ce procès marque un tournant dans les litiges sur le droit d'auteur et l'IA : pour la première fois, ce ne sont plus des auteurs isolés mais des maisons d'édition pesant collectivement des milliards de dollars qui s'attaquent frontalement à un géant technologique. Si les plaignants obtiennent gain de cause, les dommages et intérêts pourraient atteindre des montants records et contraindre l'ensemble de l'industrie à revoir radicalement ses pratiques d'acquisition de données d'entraînement. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'industrie de l'IA et les ayants droit, après les poursuites déjà engagées contre OpenAI, Stability AI et Google. Des preuves internes évoquées dans d'autres dossiers suggèrent que Meta était consciente des risques juridiques liés à l'utilisation de LibGen mais a néanmoins choisi de procéder. La décision de justice pourrait établir une jurisprudence déterminante sur ce que les entreprises d'IA ont le droit d'utiliser pour former leurs modèles.

UEHachette et Elsevier, maisons d'édition présentes en Europe, sont plaignantes ; une jurisprudence américaine sur l'entraînement des LLM influencera directement les pratiques des acteurs IA opérant sous l'AI Act et les litiges en cours devant les tribunaux européens.

💬 Des auteurs isolés, ça pouvait encore se gérer. Là, ce sont des éditeurs pesant des milliards qui ont les reins solides pour tenir un procès pendant dix ans, et des preuves internes qui montrent que Meta savait très bien ce qu'elle faisait en utilisant LibGen. Ça va coûter cher.

ÉthiqueReglementation
1 source
Taylor Swift dépose sa voix et son image comme marques pour contrer les clones IA
4Next INpact 

Taylor Swift dépose sa voix et son image comme marques pour contrer les clones IA

Taylor Swift a déposé le 24 avril 2026 plusieurs marques auprès de l'USPTO, l'agence américaine des brevets et des marques, pour protéger sa voix et son image contre les clones générés par intelligence artificielle. Deux de ces dépôts portent sur des extraits sonores de sa voix, les phrases "Hey, it's Taylor Swift" et "Hey, it's Taylor", tandis qu'un troisième concerne une photographie précisément décrite dans le dossier : la chanteuse tenant une guitare rose à sangle noire, vêtue d'une combinaison irisée multicolore et de bottes argentées. Cette démarche fait suite à celle de l'acteur Matthew McConaughey, qui avait obtenu mi-janvier l'approbation de huit marques similaires auprès de la même agence, incluant des vidéos et un enregistrement audio de sa célèbre réplique "Alright, alright, alright" tirée du film Dazed and Confused. Ces dépôts visent à combler un angle mort juridique que l'essor de l'IA générative a creusé dans l'arsenal légal des artistes. Le droit d'auteur protège les enregistrements existants, mais il ne couvre pas les contenus "inédits" produits "à la manière de" par une IA, sans copie directe d'une oeuvre protégée. Cette zone grise alimente déjà une industrie de l'escroquerie prospère : deepfakes de célébrités utilisés pour vendre des produits sur les réseaux sociaux, comme l'a vécu Tom Hanks en devant alerter publiquement ses fans qu'il ne faisait pas la promotion d'une assurance dentaire. Les "marques sonores" déposées par Swift fonctionnent sur le même modèle que le "tudum" de Netflix ou les carillons de la BBC, offrant un ancrage juridique qui couvre non seulement les copies exactes mais aussi les sons susceptibles de créer une confusion dans l'esprit du public. L'enjeu dépasse largement le cas de deux célébrités fortunées cherchant à protéger leur image. Si cette approche résiste aux tribunaux, elle pourrait redéfinir les responsabilités des plateformes d'IA et ouvrir la voie à des injonctions bien plus rapides et plus larges que ce que permet le droit d'auteur. Mais le chemin reste incertain : le droit des marques n'a jamais été testé de cette façon pour protéger une voix ou une apparence humaine, et des questions fondamentales demeurent sans réponse, notamment la définition de la "ressemblance trompeuse" appliquée à une voix synthétique. Les disparités juridiques entre pays ajoutent une couche de complexité supplémentaire. McConaughey lui-même, pourtant investisseur chez ElevenLabs, résume l'enjeu : "Nous voulons établir un cadre clair autour de la propriété, où le consentement et l'attribution deviennent la norme dans un monde dominé par l'IA."

UESi cette stratégie de marques sonores résiste aux tribunaux américains, elle pourrait inspirer des recours similaires pour les artistes européens, dont la protection contre les clones IA reste lacunaire malgré l'AI Act.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour