Aller au contenu principal
Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA
ÉthiqueThe Verge1h

Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA

1 source couvre ce sujet·Source originale ↗·

Plus de 600 employés de Google ont signé une lettre adressée au PDG Sundar Pichai pour exiger que l'entreprise refuse d'autoriser le Pentagone à utiliser ses modèles d'intelligence artificielle à des fins militaires classifiées, selon le Washington Post. Les organisateurs de cette pétition affirment que les signataires incluent de nombreux membres du laboratoire DeepMind, ainsi que plus de vingt directeurs de haut rang, vice-présidents et responsables techniques. La lettre a été transmise en interne avant d'être relayée par la presse.

Le texte de la pétition est sans ambiguïté : "La seule façon de garantir que Google ne soit pas associé à de tels préjudices est de rejeter tout contrat classifié." Les employés craignent que des usages militaires problématiques puissent se produire sans leur connaissance ni la possibilité d'intervenir. Pour eux, le secret entourant les contrats classifiés rend impossible tout contrôle éthique interne, ce qui représente un risque fondamental pour la réputation et les valeurs affichées de l'entreprise.

Ce mouvement s'inscrit dans une longue tradition de résistance interne chez Google : en 2018, des milliers d'employés avaient forcé l'entreprise à abandonner le projet Maven, un contrat d'analyse d'images par IA pour l'armée américaine. Depuis, Google a néanmoins signé d'autres contrats de défense. Le sujet est d'autant plus brûlant qu'Anthropic est actuellement engagé dans un litige juridique avec le Pentagone autour d'un contrat similaire, illustrant les tensions croissantes entre la Silicon Valley et le complexe militaro-industriel américain.

Impact France/UE

Ce mouvement de protestation interne illustre les tensions éthiques sur l'usage militaire de l'IA, un débat que l'Europe devra trancher dans le cadre de l'AI Act et de sa politique de défense commune émergente.

Dans nos dossiers

À lire aussi

Meta formerait des agents IA en surveillant les souris et claviers de ses employés
1Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source
☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA
2Next INpact 

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA

Meta a discrètement déployé un outil de surveillance baptisé Model Capability Initiative (MCI) sur les ordinateurs de ses employés, révèlent des mémos internes obtenus par Reuters. Concrètement, le dispositif enregistre l'intégralité des interactions des salariés avec leurs applications et sites web, mouvements de curseur, clics, frappes clavier, et effectue des captures d'écran à intervalles réguliers. L'entreprise précise que MCI n'a pas vocation à évaluer la productivité des employés ni à les surveiller au sens disciplinaire du terme, et affirme avoir mis en place des protections pour les "contenus sensibles", sans en détailler la nature. Andrew Bosworth, directeur technique du groupe, a exposé l'ambition derrière l'initiative dans un mémo interne : construire un environnement où les agents IA réalisent l'essentiel du travail pendant que les humains les dirigent, les évaluent et les corrigent. L'enjeu est précis : les modèles d'IA de Meta peinent à reproduire fidèlement les comportements humains face à un ordinateur, sélectionner une option dans un menu déroulant, enchaîner des raccourcis clavier, naviguer intuitivement entre applications. Ces lacunes limitent directement les capacités des agents IA qui prennent le contrôle d'un poste de travail à la place de l'utilisateur. En collectant des données comportementales réelles en conditions de travail, Meta espère combler ces angles morts et produire des agents capables, selon les mots de Bosworth, "d'identifier automatiquement les moments où nous avons ressenti le besoin d'intervenir, afin de faire mieux la fois suivante". C'est un pari industriel majeur : la course aux agents autonomes se joue désormais sur la qualité des données d'entraînement comportementales, et Meta entend utiliser ses propres effectifs comme terrain d'expérimentation. L'initiative se heurtera probablement à des obstacles juridiques significatifs en Europe. Le RGPD encadre strictement la collecte de données personnelles, y compris en contexte professionnel, et plusieurs législations nationales vont plus loin encore. En Italie, la surveillance électronique de la productivité des salariés est explicitement interdite. En France, si l'employeur peut accéder au matériel informatique mis à disposition des salariés, il doit préalablement informer les employés concernés et consulter les représentants du personnel, comité d'entreprise et comité social et économique. La CNIL a rappelé à plusieurs reprises que tout dispositif de surveillance doit être "strictement proportionné à l'objectif suivi" et ne peut servir à une surveillance permanente ; les keyloggers sont d'ailleurs explicitement cités parmi les outils prohibés. Meta devra donc adapter ou suspendre MCI dans plusieurs pays européens, sous peine de sanctions qui pourraient compromettre l'ensemble du programme.

UEMeta devra suspendre ou adapter son outil MCI en France et dans l'UE, où le RGPD, la CNIL (qui interdit explicitement les keyloggers) et le droit du travail français (consultation obligatoire du CSE) s'opposent à une surveillance permanente des salariés à des fins d'entraînement IA.

💬 Le problème des agents IA, c'est pas l'intelligence, c'est les micro-gestes : savoir qu'après ce menu tu fais Tab et pas clic, que ce champ se remplit dans tel ordre. Pour combler ça, Meta filme ses propres employés en permanence. Bon, sur le papier c'est du bon sens industriel, mais en Europe c'est un keylogger permanent sur du matériel pro, et la CNIL a été très claire là-dessus : non.

ÉthiqueReglementation
1 source
Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense
3MIT Technology Review 

Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

Le Pentagone prépare des environnements sécurisés pour permettre à des entreprises comme OpenAI et xAI d'Elon Musk d'entraîner leurs modèles d'IA sur des données classifiées militaires, une première qui va au-delà de l'usage actuel (les modèles comme Claude d'Anthropic répondent déjà à des questions en contexte classifié, notamment pour l'analyse de cibles en Iran). L'entraînement se ferait dans des centres de données accrédités, où des employés habilités des entreprises d'IA pourraient accéder aux données dans de rares cas, tandis que le DoD resterait propriétaire des données. Selon Aalok Mehta du CSIS, le principal risque est que des informations classifiées intégrées dans les modèles pourraient être réexposées à n'importe quel utilisateur.

UELes débats américains sur l'entraînement de l'IA sur des données militaires classifiées pourraient accélérer les réflexions européennes sur l'encadrement de l'IA de défense dans le cadre du AI Act.

ÉthiqueActu
1 source
L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite
4Numerama 

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, a exprimé publiquement ses regrets quant à la vitesse à laquelle l'IA générative a été déployée auprès du grand public. Invité du podcast de Cleo Abram, il est revenu sur le choc de novembre 2022 : le lancement de ChatGPT par OpenAI avait alors pris Google complètement par surprise, forçant l'entreprise à accélérer brutalement ses propres calendriers de publication. Hassabis se demande ouvertement si cette course à la commercialisation n'a pas été prématurée. Selon lui, les laboratoires de recherche auraient pu consacrer davantage de temps à comprendre en profondeur les modèles, à résoudre des problèmes fondamentaux de sécurité et d'alignement, plutôt que de se battre pour des parts de marché et des titres de presse. La sortie rapide de ChatGPT a enclenché une dynamique compétitive qui contraint désormais tous les acteurs à publier vite, parfois au détriment de la rigueur scientifique. Ce témoignage illustre une tension de fond dans l'industrie de l'IA : la pression commerciale des entreprises technologiques entre en conflit direct avec les recommandations des chercheurs qui plaident pour une approche plus prudente et progressive. Google, Microsoft, Anthropic et Meta sont aujourd'hui engagés dans une compétition effrénée où chaque annonce de modèle déclenche une réaction en chaîne. Les propos d'Hassabis alimentent un débat plus large sur la gouvernance de l'IA et la responsabilité des laboratoires face à des technologies dont les implications à long terme restent mal comprises.

UELes propos d'Hassabis renforcent la position européenne en faveur d'une régulation prudente de l'IA, soutenant les arguments derrière l'AI Act face à la pression compétitive des grandes plateformes américaines.

ÉthiqueOpinion
1 source