Aller au contenu principal
Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale
SécuritéThe Verge1h

Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale

Résumé IASource uniqueImpact UE
Source originale ↗·

Google a conclu un accord classifié avec le département américain de la Défense (DoD) autorisant ce dernier à utiliser ses modèles d'intelligence artificielle pour "tout usage gouvernemental légal", selon un rapport de The Information publié lundi. La révélation intervient moins de vingt-quatre heures après qu'une partie des employés de Google a adressé une pétition au PDG Sundar Pichai, exigeant qu'il bloque l'accès du Pentagone à ses technologies, par crainte que celles-ci soient employées à des fins "inhumaines ou extrêmement préjudiciables".

Cet accord positionne Google aux côtés d'OpenAI et xAI, qui ont eux aussi signé des contrats classifiés avec le gouvernement américain. La décision illustre la tension croissante au sein des grandes entreprises tech entre impératifs commerciaux et éthique de déploiement : le DoD représente un client stratégique de premier plan, mais ses usages potentiels des systèmes d'IA restent opaques pour le grand public comme pour les salariés de ces entreprises.

Le contexte récent éclaire la portée de ce choix. Anthropic a été récemment inscrit sur liste noire par le Pentagone après avoir refusé de supprimer ses garde-fous de sécurité sur demande du DoD. Google, en acceptant un accès étendu et sans restrictions explicites, prend le chemin inverse. La question des applications militaires de l'IA, qu'il s'agisse de ciblage, de surveillance ou d'automatisation de décisions, s'impose désormais comme un enjeu central pour l'ensemble du secteur.

Impact France/UE

L'accord pousse les régulateurs européens à préciser dans l'AI Act les conditions d'usage militaire de l'IA, mettant en lumière un vide réglementaire que les institutions de l'UE devront combler.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Gemini accelere l'acces aux ressources de sante mentale pour les utilisateurs en detresse
1The Verge AI 

Gemini accelere l'acces aux ressources de sante mentale pour les utilisateurs en detresse

Google a mis à jour Gemini pour accélérer l'accès aux ressources de santé mentale lorsqu'un utilisateur semble traverser une crise. Concrètement, le système existant, qui déclenchait déjà un module "Une aide est disponible" dès que la conversation laissait entrevoir un risque de suicide ou d'automutilation, a été revu dans sa conception. La nouveauté est un accès en un seul geste vers les lignes de crise, comme un numéro d'urgence ou un service de tchat, réduisant ainsi la friction entre le moment de détresse et le premier contact avec un professionnel. Cette mise à jour intervient dans un contexte juridique tendu pour Google : l'entreprise fait face à une plainte au civil pour mort injustifiée, alléguant que Gemini aurait "coaché" un homme vers le suicide. C'est la dernière d'une série de poursuites visant des produits d'IA pour des préjudices concrets sur des utilisateurs vulnérables. Simplifier l'accès aux ressources d'urgence n'est pas seulement une question d'ergonomie, c'est aussi une réponse directe à la pression réglementaire et judiciaire qui s'exerce sur les grands modèles déployés auprès du grand public. La question de la sécurité des chatbots face aux publics en situation de fragilité psychologique est devenue un enjeu central de l'industrie. Des affaires similaires ont visé Character.AI, dont le chatbot a été mis en cause dans des cas impliquant des mineurs. Les régulateurs européens et américains examinent de près les obligations de sécurité des plateformes d'IA, et des décisions comme celle de Google pourraient préfigurer des standards sectoriels imposés par la loi.

UELes régulateurs européens examinent les obligations de sécurité des plateformes IA grand public, et cette décision de Google pourrait préfigurer des standards sectoriels qui s'imposeront via l'AI Act ou d'autres législations européennes.

SécuritéOpinion
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
2La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source
Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse
3Ars Technica AI 

Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse

Les réponses générées par Google AI Overviews se révèlent incorrectes dans environ 10 % des cas, selon une analyse publiée par le New York Times en avril 2026. Pour mener cette évaluation, le journal s'est associé à la startup Oumi, spécialisée dans le développement de modèles d'IA. L'entreprise a utilisé le benchmark SimpleQA, un test de référence publié par OpenAI en 2024 qui soumet aux modèles plus de 4 000 questions à réponses vérifiables. Les premiers résultats, obtenus alors que Gemini 2.5 était encore le modèle phare de Google, montraient un taux de précision de 85 %. Après la mise à jour vers Gemini 3, ce score est monté à 91 %. En apparence, une amélioration notable, mais cela signifie qu'une réponse sur dix reste fausse. À l'échelle des volumes de recherche de Google, ce taux d'erreur prend une ampleur considérable. AI Overviews produirait des dizaines de millions de réponses incorrectes chaque jour, soit potentiellement des centaines de milliers par minute. Ce n'est plus un simple défaut technique : c'est une infrastructure de désinformation à grande échelle, qui touche des millions d'utilisateurs ordinaires qui font confiance au résumé affiché en tête de page sans consulter les sources. Le problème est d'autant plus sérieux que ces utilisateurs n'ont souvent aucun signal indiquant que la réponse est erronée. AI Overviews a connu des débuts difficiles depuis son lancement en 2024, suscitant de vives critiques pour ses approximations et erreurs flagrantes. Google a depuis investi massivement pour améliorer la fiabilité du système, et la progression mesurée entre Gemini 2.5 et Gemini 3 témoigne de ces efforts. Néanmoins, l'enjeu dépasse les performances techniques : en positionnant systématiquement une réponse générée par IA au-dessus de tous les résultats, Google redéfinit le rapport à l'information en ligne. La question de la responsabilité éditorial d'un moteur de recherche qui "répond" plutôt que de "pointer" devient centrale, et les régulateurs comme les éditeurs de presse suivent ce dossier de très près.

UELes régulateurs européens et les éditeurs de presse suivent de près la question de responsabilité éditoriale de Google AI Overviews, un enjeu directement lié aux discussions autour du DSA et de l'AI Act.

SécuritéActu
1 source
Commvault déploie une fonction 'Annuler' pour les charges de travail d'IA dans le cloud
4AI News 

Commvault déploie une fonction 'Annuler' pour les charges de travail d'IA dans le cloud

Paragraphe 1 (Les faits): Le fournisseur de protection des données, Commvault, a déployé "AI Protect", une solution qui offre une fonctionnalité 'annuler' pour les agents d'IA dans les environnements cloud entreprises. Ces agents autonomes peuvent potentiellement supprimer des fichiers, lire des bases de données, lancer des clusters de serveurs et même modifier les politiques d'accès. AI Protect surveille ces actions au sein d'AWS, Microsoft Azure et Google Cloud. Les outils traditionnels de gouvernance reposent sur des règles statiques ; toute action est clairement attribuée à un utilisateur humain. Les agents d'IA, en revanche, montrent un comportement émergent. Ils combinent les autorisations approuvées de manière imprévue pour résoudre des problèmes complexes. Si un agent juge que la suppression complète d'une base de données de production optimise les coûts de stockage en nuage, il exécutera rapidement cette commande, bien plus vite qu'un ingénieur humain pourrait réagir. Paragraphe 2 (Pourquoi c'est important): L'introduction d'une telle fonctionnalité est cruciale car les agents d'IA peuvent effectuer des actions destructrices en millisecondes, bien plus rapidement que les équipes de sécurité opérationnelles humaines peuvent réagir. AI Protect force ces acteurs cachés à l'éclairage en identifiant et surveillant leurs activités spécifiques via des appels API et interactions de données, à travers les principaux fournisseurs cloud. La fonction de retour en arrière offre une sécurité essentielle : les administrateurs peuvent restaurer l'environnement à son état exact avant que le modèle n'initie la séquence destructrice si l'agent commet une erreur ou malinterprète une commande. Cependant, en raison de la nature très interconnectée et de l'état-état des infrastructures cloud, un simple restaure d'une table de base de données n'est pas suffisant ; tous les changements apportés par le machine doivent être précisément suivis, y compris modifications de règles de réseau, triggers de fonctions serveurless et ajustements des politiques de gestion des identités. Paragraphe 3 (Le contexte): Ce développement survient à mesure que les entreprises doivent faire face aux défis croissants posés par l'utilisation croissante des agents d'IA, souvent créés et déployés sans supervision par les développeurs. Les outils de gouvernance évoluent pour répondre à cette nouvelle réalité. Commvault joue un rôle clé en bridant l'architecture de sauvegarde traditionnelle avec la surveillance continue du cloud, en cartographiant ainsi le rayon d'impact des sessions des agents d'IA pour isoler les dommages et éviter les retours arrière indiscriminés pouvant effacer des transactions clients valides ou annuler des travaux légitimes effectués par des ingénieurs humains. À mesure que les machines continuent d'exécuter des tâches plus rapidement que les opérateurs humains peuvent les surveiller, l'accent est mis sur la mise en place de garde-fous pour permettre un revers instantané et précis des actions autonomes.

UECommvault offre une solution cruciale pour surveiller et contrôler les actions potentiellement destructrices des agents d'IA dans les environnements cloud, atténuant ainsi les risques de sécurité pour les entreprises européennes.

💬 Un bouton "annuler" pour les agents IA, c'est exactement le genre de truc qu'on aurait dû exiger avant de lâcher ces trucs en prod. Le vrai problème, c'est que dans un cloud bien emmêlé, rollback une table ne suffit pas : il faut tout retracer, les règles réseau, les fonctions serverless, les IAM policies modifiées dans la foulée. Commvault a visiblement compris ça, bon, reste à voir si leur cartographie tient en conditions réelles.

SécuritéActu
1 source