Aller au contenu principal
Google donne un builder d’agents IA au Pentagone, et on ne sait même pas pourquoi
ÉthiqueLe Big Data8sem

Google donne un builder d’agents IA au Pentagone, et on ne sait même pas pourquoi

Résumé IASource uniqueImpact UE
Source originale ↗·

Google déploie ses agents IA Gemini auprès des 3 millions d'employés du Pentagone, confirmé par Emil Michael, sous-secrétaire à la Défense. Dans un premier temps limités aux réseaux non classifiés et aux tâches administratives et logistiques, ces agents pourraient être étendus aux systèmes classifiés selon une négociation en cours avec Google. L'annonce suscite des réactions mitigées, rappelant le controversé Project Maven de 2017, et soulève des questions sur les limites éthiques imposées aux fournisseurs technologiques travaillant avec la défense américaine.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom
1Next INpact 

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

Grammarly (rebaptisée Superhuman après une levée de fonds d'un milliard de dollars) a suspendu le 12 mars sa fonctionnalité « Expert Review », qui imitait le style d'auteurs et journalistes réels sans leur consentement — une décision prise par son PDG Shishir Mehrotra, qui reconnaît que l'outil était une « mauvaise fonctionnalité ». La journaliste Julia Angwin et d'autres poursuivent désormais l'entreprise en justice aux États-Unis pour usage non consenti de leur identité. Mehrotra esquisse un nouveau modèle : des agents IA représentant des experts, avec une répartition des revenus à 70 % pour l'auteur et 30 % pour la plateforme.

UELe RGPD et l'AI Act encadrent strictement l'usage de l'identité et des données personnelles sans consentement, rendant une fonctionnalité similaire illégale en Europe avant même tout recours judiciaire.

ÉthiqueOpinion
1 source
Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense
2MIT Technology Review 

Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

Le Pentagone prépare des environnements sécurisés pour permettre à des entreprises comme OpenAI et xAI d'Elon Musk d'entraîner leurs modèles d'IA sur des données classifiées militaires, une première qui va au-delà de l'usage actuel (les modèles comme Claude d'Anthropic répondent déjà à des questions en contexte classifié, notamment pour l'analyse de cibles en Iran). L'entraînement se ferait dans des centres de données accrédités, où des employés habilités des entreprises d'IA pourraient accéder aux données dans de rares cas, tandis que le DoD resterait propriétaire des données. Selon Aalok Mehta du CSIS, le principal risque est que des informations classifiées intégrées dans les modèles pourraient être réexposées à n'importe quel utilisateur.

UELes débats américains sur l'entraînement de l'IA sur des données militaires classifiées pourraient accélérer les réflexions européennes sur l'encadrement de l'IA de défense dans le cadre du AI Act.

ÉthiqueActu
1 source
OpenAI s’allie au Pentagone : sa cheffe de la robotique démissionne en dénonçant un manque de sécurité
3Frandroid 

OpenAI s’allie au Pentagone : sa cheffe de la robotique démissionne en dénonçant un manque de sécurité

Caitlin Kalinowski, responsable de la robotique chez OpenAI, a démissionné en dénonçant l'accord passé entre OpenAI et le Pentagone (Département de la défense de l'administration Trump). Elle critique l'absence de « cadre » de sécurité encadrant ce partenariat. Sa démission soulève des questions sur les garanties éthiques et sécuritaires dans les collaborations entre l'IA civile et le secteur militaire américain.

ÉthiqueActu
1 source
Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google
4Siècle Digital 

Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google

Un utilisateur de l'Utah, qui souhaite conserver l'anonymat, a porté plainte contre Perplexity AI, accusant le moteur de recherche basé sur l'intelligence artificielle d'avoir transmis ses conversations privées à Meta et Google sans son consentement. Selon son avocat, l'utilisateur recourait régulièrement à Perplexity pour obtenir des conseils fiscaux, juridiques et financiers, des échanges qu'il considérait confidentiels. Des outils de tracking intégrés à la plateforme auraient permis à des tiers d'accéder à ces données sensibles, à l'insu des utilisateurs. Cette affaire soulève une question centrale pour l'ensemble du secteur des assistants IA : que deviennent les conversations des utilisateurs lorsqu'ils confient à ces outils des informations personnelles, médicales ou financières ? Contrairement à un moteur de recherche classique où l'on tape des mots-clés, Perplexity incite à formuler des questions détaillées, souvent très révélatrices de la situation personnelle de l'utilisateur. Partager ce type de données avec des régies publicitaires comme Meta ou Google représente une violation grave de la confiance placée dans ces plateformes, avec des implications directes sur la vie privée de millions de personnes. Perplexity, fondée en 2022 et valorisée à plusieurs milliards de dollars, s'est rapidement imposée comme un concurrent sérieux face à Google Search et ChatGPT. La startup avait déjà fait l'objet de critiques pour ses pratiques de scraping agressif et des accusations de plagiat envers des médias. Cette plainte s'inscrit dans un contexte plus large de régulation croissante des pratiques des entreprises d'IA autour de la collecte et du partage de données personnelles, notamment en Europe avec le RGPD et aux États-Unis où plusieurs États renforcent leurs législations sur la vie privée.

UESi des pratiques similaires de partage de conversations avec des régies publicitaires concernaient des utilisateurs européens, elles constitueraient une violation caractérisée du RGPD, exposant Perplexity à des sanctions pouvant atteindre 4 % de son chiffre d'affaires mondial.

💬 Perplexity, c'est le genre de produit qu'on conseille à ses proches parce que "c'est mieux que Google" — sauf qu'on vient de découvrir que des conversations sur ses impôts ou sa situation juridique partaient peut-être chez Meta. Le problème, c'est que les gens posent des vraies questions à ces outils, pas des mots-clés détachés de tout contexte, et la différence est énorme côté données. Faut arrêter de traiter les assistants IA comme des moteurs de recherche glorifiés : dès qu'on y colle du contexte personnel, c'est une autre catégorie de risque.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour