
GitHub utilisera les données d'interaction Copilot pour entraîner ses modèles IA à partir d'avril 2026
À partir du 24 avril 2026, GitHub modifie sa politique de données pour Copilot, son assistant de programmation alimenté par l'intelligence artificielle. Les interactions des utilisateurs abonnés aux plans Free, Pro et Pro+ seront désormais exploitées pour entraîner les modèles d'IA, sauf si ces derniers choisissent explicitement de se désinscrire. Ce changement opt-out — plutôt qu'opt-in — place la charge de la protection sur l'utilisateur, et non sur la plateforme. Cette décision touche potentiellement des dizaines de millions de développeurs qui utilisent Copilot au quotidien pour générer, compléter et réviser du code. En collectant des données d'interaction réelles — requêtes, suggestions acceptées ou rejetées, contexte du code — GitHub et sa maison mère Microsoft obtiennent un corpus d'entraînement d'une valeur considérable pour améliorer leurs modèles. Pour les développeurs travaillant sur des projets sensibles ou propriétaires, le risque perçu est que des fragments de code ou des pratiques internes alimentent indirectement un système partagé. GitHub s'inscrit ainsi dans une tendance plus large : plusieurs grandes plateformes tech, d'Adobe à LinkedIn, ont récemment mis à jour leurs conditions d'utilisation pour inclure des clauses similaires, déclenchant à chaque fois des controverses. Microsoft, qui a investi massivement dans OpenAI et intégré Copilot dans l'ensemble de son écosystème, a un intérêt stratégique direct à maximiser la qualité de ses modèles de code. Les utilisateurs souhaitant protéger leurs données devront se rendre dans les paramètres de leur compte avant la date butoir du 24 avril pour désactiver cette collecte.
Le modèle opt-out de GitHub pourrait être incompatible avec le RGPD, qui impose un consentement explicite et préalable — les développeurs européens doivent agir avant le 24 avril 2026, et la CNIL ou le CEPD pourraient examiner la légalité de cette politique.