Aller au contenu principal
Palantir s’étend encore au Pentagone et dans le système britannique
BusinessNext INpact6sem

Palantir s’étend encore au Pentagone et dans le système britannique

Résumé IASource uniqueImpact UE
Source originale ↗·

Palantir renforce considérablement son emprise sur les appareils militaires et financiers occidentaux. Le Pentagone a officiellement intégré le logiciel Maven de la société d'Alex Karp comme programme permanent au sein de ses forces armées, tandis que l'entreprise décroche simultanément un contrat avec l'autorité financière britannique, la Financial Conduct Authority (FCA), pour analyser des données sensibles liées à la criminalité financière.

Cette double expansion illustre la montée en puissance de Palantir dans les institutions publiques de part et d'autre de l'Atlantique. Maven n'est pas un outil anodin : il agrège massivement des données pour alimenter la prise de décision opérationnelle en temps réel — reconnaissance automatique de véhicules, identification de cibles via drones et satellites. Son adoption comme programme officiel du Pentagone garantit à Palantir une présence structurelle et durable au cœur de la stratégie militaire américaine, un ancrage que l'élection de Donald Trump a considérablement accéléré.

Le mémo interne signé par le secrétaire adjoint à la Défense, Steve Feinberg, révèle l'ampleur des ambitions : Maven doit fournir aux combattants « les outils les plus récents pour détecter, dissuader et dominer leurs adversaires dans tous les domaines ». Ce déploiement s'inscrit dans un budget dédié à « l'autonomie et aux systèmes autonomes » de 13,4 milliards de dollars, dont 9,4 milliards pour les drones seuls. Côté britannique, le contrat avec la FCA prévoit 30 000 livres sterling (environ 34 670 euros) par semaine pour une phase d'essai — un montant modeste en apparence, mais symboliquement lourd pour une entreprise qui a déjà décroché un contrat avec le NHS en 2023.

La présence croissante de Palantir dans les systèmes gouvernementaux britanniques suscite des résistances parlementaires. L'écologiste Siân Berry a demandé au gouvernement de « bloquer immédiatement » ce contrat, jugeant incompatible la présence d'une entreprise « étroitement impliquée dans les guerres illégales du président Trump » au sein des institutions britanniques. Le premier ministre travailliste Keir Starmer a pour sa part écarté toute inquiétude sur une dépendance excessive aux entreprises américaines — une posture que ses opposants contestent vivement.

Impact France/UE

Le contrat avec la Financial Conduct Authority britannique et l'intégration de Maven au sein de l'OTAN soulèvent des questions de souveraineté des données et de dépendance stratégique envers un acteur privé américain pour des infrastructures sensibles européennes.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le Pentagone signe des accords IA confidentiels avec OpenAI, Google et Nvidia, mais pas Anthropic
1The Verge AI 

Le Pentagone signe des accords IA confidentiels avec OpenAI, Google et Nvidia, mais pas Anthropic

Le Pentagone a officialisé des accords d'accès classifié avec OpenAI, Google, Microsoft, Amazon, Nvidia, xAI d'Elon Musk et la startup Reflection, permettant à ces entreprises de fournir leurs outils d'intelligence artificielle à des usages militaires sensibles. L'annonce a été faite vendredi par le département de la Défense américain. OpenAI et xAI avaient déjà conclu des ententes préalables encadrant l'usage "légal" de leurs systèmes, Google ayant quant à lui finalisé un accord similaire selon The Information. Microsoft et Amazon, déjà profondément implantés dans les infrastructures cloud du gouvernement américain via leurs offres souveraines, rejoignent officiellement ce cercle restreint. Ce qui retient l'attention est autant l'inclusion que l'exclusion : Anthropic, qui faisait auparavant partie des prestataires IA du Pentagone pour le traitement d'informations classifiées, a été écarté, le ministère l'ayant désigné comme un "risque de chaîne d'approvisionnement". C'est une rupture significative pour l'entreprise fondée par Dario Amodei, dont la stratégie de sécurité et d'alignement avait jusqu'ici semblé attrayante pour les institutions gouvernementales exigeantes. Cette décision s'inscrit dans une course accélérée entre les grands acteurs de l'IA pour sécuriser des contrats fédéraux américains, marché estimé à plusieurs dizaines de milliards de dollars sur la prochaine décennie. Le label "risque fournisseur" appliqué à Anthropic pourrait refléter des préoccupations liées aux investisseurs étrangers au capital de l'entreprise, notamment Saudi Aramco. Pour les entreprises sélectionnées, l'accès aux environnements classifiés représente un avantage concurrentiel considérable et une validation stratégique au plus haut niveau institutionnel.

UELa désignation d'un prestataire IA comme 'risque de chaîne d'approvisionnement' en raison d'investisseurs étrangers pourrait inspirer des critères similaires dans les appels d'offres européens pour les systèmes IA à usage sensible ou gouvernemental.

BusinessOpinion
1 source
Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire
2The Information AI 

Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire

Google est en négociation avec le Département de la Défense américain pour un accord qui permettrait au Pentagone de déployer les modèles d'intelligence artificielle Gemini dans des environnements classifiés. L'information, révélée par deux personnes ayant une connaissance directe des discussions, indique que les deux parties envisagent un contrat autorisant l'utilisation de l'IA de Google pour l'ensemble des usages légaux au sein des forces armées américaines. Selon l'une de ces sources, Google aurait proposé d'inclure dans le contrat des clauses restrictives visant à empêcher que ses modèles soient utilisés pour de la surveillance de masse intérieure ou pour des systèmes d'armes autonomes, notamment le ciblage, sans supervision humaine "appropriée". Cet accord marquerait un tournant majeur dans la relation entre Google et le secteur militaire. L'entreprise deviendrait un contractant technologique significatif du Pentagone, avec un accès potentiel à des infrastructures classifiées, un niveau d'engagement rarement atteint dans l'industrie tech civile. Pour l'armée américaine, intégrer Gemini dans des environnements sécurisés ouvrirait la voie à des capacités d'analyse, de traitement du renseignement et de prise de décision assistée par IA à une échelle et une vitesse sans précédent. Les garde-fous proposés par Google, bien que symboliquement importants, restent formulés de façon vague, notamment autour de la notion de contrôle humain "approprié", ce qui laisse une marge d'interprétation considérable. Ce rapprochement s'inscrit dans un renversement de position spectaculaire pour Google. En 2018, face à une fronde interne massive de ses employés, l'entreprise avait abandonné le projet Maven, un contrat avec le Pentagone portant sur l'analyse d'images de drones par IA, et s'était engagée à ne pas développer d'IA à usage militaire offensif. Depuis, la concurrence acharnée avec Microsoft, qui fournit déjà des services cloud et d'IA à l'armée via Azure et ses partenariats avec OpenAI, ainsi que la pression des actionnaires ont poussé Google à reconsidérer cette posture. La course aux contrats gouvernementaux dans le domaine de l'IA est désormais un enjeu stratégique majeur pour l'ensemble des grandes entreprises technologiques américaines.

UECe rapprochement militaro-technologique américain pourrait accélérer les débats européens sur la souveraineté technologique et l'encadrement de l'IA dans la défense.

BusinessActu
1 source
Palantir AI va soutenir les opérations financières du Royaume-Uni
3AI News 

Palantir AI va soutenir les opérations financières du Royaume-Uni

La FCA (Financial Conduct Authority) britannique teste la plateforme Foundry de Palantir dans le cadre d'un pilote de trois mois à plus de 30 000 £ par semaine, visant à détecter le blanchiment d'argent, les délits d'initiés et la fraude parmi les 42 000 entreprises financières sous sa supervision. Au-delà de la régulation financière, le gouvernement britannique a conclu en septembre 2025 un partenariat stratégique avec Palantir pour accélérer les capacités militaires de ciblage, avec un investissement prévu de 1,5 milliard de livres pour établir à Londres le siège européen de défense de l'entreprise. Ce déploiement, qui devrait créer jusqu'à 350 emplois et générer des contrats de 750 millions de livres sur cinq ans, illustre l'adoption croissante des plateformes d'IA dans les opérations critiques de l'État britannique.

UELe Royaume-Uni (hors UE) adopte massivement les outils IA de Palantir pour sa régulation financière et ses capacités militaires, ce qui pourrait inciter d'autres États européens à envisager des partenariats similaires avec des acteurs américains pour leurs infrastructures critiques.

BusinessActu
1 source
Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque
4Next INpact 

Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque

Le Pentagone a signé fin avril 2026 des accords avec huit fournisseurs de modèles d'intelligence artificielle pour déployer leurs technologies dans des opérations militaires classifiées. Les entreprises retenues sont OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, Oracle, SpaceX via sa filiale xAI, et Reflection. Ces contrats couvrent deux niveaux de classification : l'IL6, équivalent du « secret défense », et l'IL7, réservé aux données encore plus sensibles liées aux opérations en cours. Concrètement, ces IA seront mobilisées pour l'analyse de renseignement, la planification d'opérations et l'aide à la prise de décision en temps réel. Une entreprise brille par son absence : Anthropic, pourtant l'un des acteurs les plus avancés du secteur, a été écarté de ces accords. Cette sélection marque une accélération majeure de l'intégration de l'IA dans l'appareil militaire américain, avec des implications industrielles et éthiques immédiates. Chez Google, l'accord signé le 27 avril a provoqué une fronde interne : plus de 560 employés ont adressé une lettre ouverte à Sundar Pichai, réclamant que l'entreprise refuse tout contrat impliquant des opérations classifiées. « La seule façon de garantir que Google ne soit pas associé à de tels dommages est de refuser tout travail sur des projets classifiés », écrivent les signataires. Kent Walker, président des affaires juridiques d'Alphabet, a répondu sans ambiguïté dans un mémo interne, affirmant que Google travaillait « avec fierté » avec le ministère de la Défense depuis ses débuts et que soutenir la sécurité nationale de manière « réfléchie et responsable » restait une priorité de l'entreprise. Le cas Anthropic illustre les tensions profondes entre les exigences du Pentagone et les garde-fous éthiques des labs d'IA. Le DoD utilisait pourtant les modèles Claude depuis 2024, dans des opérations sensibles : ils auraient notamment contribué à la capture de Nicolas Maduro le 3 janvier, et aux premières opérations militaires liées au conflit israélo-iranien. Mais Anthropic a posé des conditions, refusant notamment que sa technologie serve à la surveillance de masse de citoyens américains ou à des armes entièrement autonomes. Le DoD, peu enclin à se laisser imposer des contraintes par un fournisseur, a alors désigné Anthropic « fournisseur à risque », une première pour une entreprise américaine, assimilée à une menace pour la chaîne d'approvisionnement nationale. L'affaire s'est depuis enlisée devant les tribunaux. Le lancement de Mythos par Anthropic début avril semble avoir légèrement rouvert la porte : le directeur technique du DoD, Emil Michael, reconnaît qu'Anthropic reste un risque d'approvisionnement tout en laissant entendre que la situation pourrait évoluer.

UEL'accélération de l'IA militaire classifiée aux États-Unis risque de relancer les débats européens sur une doctrine IA-défense propre et sur les limites que l'AI Act pourrait imposer aux applications militaires des modèles d'IA.

💬 Anthropic dit non à la surveillance de masse et aux armes autonomes, et se retrouve officiellement sur liste noire du Pentagone. C'est sans doute le premier lab à perdre un gros contrat sur des principes éthiques, pas juste à en parler depuis une scène de conférence. Ça va leur coûter cher, et c'est pourtant le seul truc crédible qu'on ait vu depuis longtemps dans ce secteur.

BusinessReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour