Aller au contenu principal
Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA
AutreAI News5h

Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA

1 source couvre ce sujet·Source originale ↗·

Fin février, le secrétaire américain à la Défense Pete Hegseth a adressé un ultimatum au PDG d'Anthropic, Dario Amodei : supprimer les garde-fous empêchant Claude d'être utilisé pour des armes entièrement autonomes et de la surveillance de masse intérieure, ou en subir les conséquences. Amodei a refusé, estimant qu'Anthropic ne pouvait pas "en bonne conscience" répondre à la demande du Pentagone, certains usages de l'IA pouvant "saper plutôt que défendre les valeurs démocratiques". La réaction de Washington a été immédiate : Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic, le Pentagone a classé l'entreprise comme risque pour la chaîne d'approvisionnement -- label habituellement réservé à des entités étrangères adverses comme Huawei -- et le contrat de 200 millions de dollars avec le ministère de la Défense a été annulé.

Londres a interprété cet épisode très différemment. Le département britannique pour la Science, l'Innovation et la Technologie (DSIT) a élaboré des propositions concrètes destinées à l'entreprise, valorisée 380 milliards de dollars : une double cotation à la Bourse de Londres et l'expansion de ses bureaux dans la capitale. Le bureau du Premier ministre Keir Starmer soutient l'initiative, qui sera soumise à Amodei lors de sa visite prévue fin mai. Anthropic compte déjà environ 200 employés au Royaume-Uni et a nommé l'ancien Premier ministre Rishi Sunak conseiller senior l'an dernier. En offrant cette ouverture, le gouvernement britannique envoie un signal explicite : les contraintes éthiques intégrées dans les produits d'Anthropic sont un atout, pas un frein. Une double cotation à Londres permettrait par ailleurs à la société d'accéder aux investisseurs institutionnels européens, à un moment où sa situation réglementaire aux États-Unis reste incertaine -- l'appel du Pentagone contre l'injonction provisoire qui bloque la désignation "risque d'approvisionnement" est toujours en cours devant la Cour d'appel du Neuvième Circuit.

L'affaire dépasse le simple conflit juridique et commercial. La juge fédérale Rita Lin, qui a accordé l'injonction provisoire en mars, a jugé les actions du gouvernement américain "troublantes" et probablement contraires à la loi -- un constat qui pèse dans le débat international sur la gouvernance de l'IA. Le Royaume-Uni se positionne comme un environnement intermédiaire entre Washington, qui exige un accès militaire sans restriction, et Bruxelles, où l'AI Act européen impose ses propres contraintes. Ce positionnement ne demande pas à Anthropic de renoncer aux garde-fous pour lesquels l'entreprise s'est battue en justice. La compétition pour attirer les grands laboratoires d'IA à Londres est déjà intense : OpenAI a promis d'en faire son plus grand hub de recherche hors des États-Unis, et Google est ancré à King's Cross depuis le rachat de DeepMind en 2014. Dans ce contexte, Anthropic représente la cible la plus stratégique à ce jour, d'autant que le Royaume-Uni vient d'annoncer la création d'un laboratoire de recherche public doté de 40 millions de livres sterling, reconnaissant ainsi l'absence d'un champion national face aux grandes puissances américaines.

Impact France/UE

Le Royaume-Uni se positionne comme hub alternatif entre Washington et Bruxelles en valorisant les garde-fous éthiques d'Anthropic, ce qui pourrait orienter des capitaux institutionnels européens vers l'entreprise et renforcer indirectement le modèle de gouvernance incarné par l'AI Act.

À lire aussi

Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA
1The Verge AI 

Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA

Suno, la plateforme de creation musicale par intelligence artificielle, se heurte a des negociations tendues avec Universal Music Group et Sony Music Entertainment pour obtenir des accords de licence. Selon le Financial Times, les discussions achoppent sur une question centrale : les utilisateurs doivent-ils pouvoir partager librement les chansons generees par l'IA en dehors de l'application ? Universal exige que les titres crees via Suno restent confines a l'interieur de la plateforme, tandis que Suno defend le droit de ses utilisateurs a diffuser et distribuer leurs creations sur l'ensemble d'internet. Cet affrontement illustre la fracture profonde entre l'industrie musicale traditionnelle et les nouveaux acteurs de l'IA generative. Pour les majors, laisser circuler librement des titres generes a partir de leur catalogue protege revient a perdre le controle de leur catalogue et potentiellement a inonder les plateformes de streaming de contenus concurrents. Pour Suno, restreindre le partage viderait son produit d'une grande partie de sa valeur : l'attrait de creer et de diffuser une chanson en quelques secondes. Suno fait deja face a un contentieux juridique majeur : la plateforme est poursuivie en justice par un collectif de grandes maisons de disques, dont Universal et Sony, pour violation massive du droit d'auteur lors de l'entrainement de son modele. Ces negociations sur les licences s'inscrivent donc dans un contexte de guerre ouverte entre l'IA musicale et l'industrie du disque, une bataille qui fixera les regles du secteur pour les annees a venir. D'autres acteurs comme Udio font face a des procedures similaires, tandis que des plateformes comme Spotify observent l'issue de ces conflits avant de decider de leur propre positionnement vis-a-vis de l'IA generative.

UEL'issue de ces negociations pourrait faire jurisprudence en Europe, ou la directive sur le droit d'auteur de 2019 encadre deja strictement l'entrainement des IA sur des oeuvres protegees et la distribution des contenus generes.

AutreReglementation
1 source
Perplexity : le mode incognito est une arnaque, vos recherches dévoilées
2Le Big Data 

Perplexity : le mode incognito est une arnaque, vos recherches dévoilées

Une action collective fédérale de 135 pages a été déposée aux États-Unis contre Perplexity, le moteur de recherche dopé à l'intelligence artificielle valorisé à plusieurs milliards de dollars. La plainte, introduite par un utilisateur anonyme sous le nom de John Doe, accuse la startup d'avoir transmis en temps réel des conversations privées à Google et Meta, y compris lorsque le mode incognito était activé. Ces transferts auraient impliqué des outils publicitaires bien identifiés : Meta Pixel, Google Ads et Google DoubleClick. L'affaire pourrait concerner des millions d'échanges depuis 2022, couvrant des sujets aussi sensibles que la santé, la fiscalité, la sexualité ou l'identité. Ce qui rend le scandale particulièrement grave, c'est la nature même de ce qui est transmis. Contrairement à une requête Google classique, les conversations avec un assistant IA sont souvent longues, personnelles et détaillées. Dans le cas de John Doe, il s'agissait de données financières liées à la gestion d'impôts et d'investissements. Mais Perplexity encourage activement ce niveau de détail en relançant ses utilisateurs avec des invitations du type "donnez-moi plus de détails sur votre plan de traitement". Si ces messages sont acheminés vers des régies publicitaires avec des identifiants liés à un compte Google ou Facebook, les conséquences sont immédiates et concrètes : un utilisateur mentionnant une maladie pourrait se retrouver ciblé par des publicités pharmaceutiques sans jamais avoir consenti à partager cette information. La plainte décrit ces mécanismes comme une "technologie d'écoute téléphonique basée sur un navigateur", soulignant que même les utilisateurs équipés de bloqueurs de publicité ou ayant désactivé les cookies ne seraient pas protégés, car Meta recommande précisément d'associer son pixel à une API de conversions pour contourner ces défenses. Perplexity avait construit une partie de sa réputation sur la promesse d'un mode incognito inspiré des navigateurs web : pas de sauvegarde, expiration des échanges au bout de vingt-quatre heures, absence dans l'historique. Cette promesse, si elle s'avère trompeuse devant un tribunal fédéral, placerait la startup dans une position juridique et réputationnelle extrêmement délicate. L'affaire s'inscrit dans un contexte plus large de méfiance croissante envers les assistants IA qui collectent des données sensibles sous couvert de confidentialité. Les régulateurs américains et européens scrutent de près ces pratiques depuis plusieurs années, et une condamnation pourrait établir un précédent majeur pour l'ensemble du secteur. Perplexity n'a pas encore répondu publiquement aux accusations au moment du dépôt de la plainte.

UELes utilisateurs européens de Perplexity sont potentiellement exposés à des transferts de données sensibles vers des régies publicitaires américaines en violation possible du RGPD, ce qui pourrait conduire la CNIL ou d'autres régulateurs européens à ouvrir une enquête.

AutreOpinion
1 source
Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic
3Siècle Digital 

Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic

Google a annoncé une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Google Workspace, en déployant ses modèles d'intelligence artificielle les plus récents. La plateforme intègre désormais Veo 3.1, capable de générer des clips vidéo en 720p à partir d'une simple description textuelle. L'outil propose également la composition musicale automatique, la personnalisation d'avatars animés, la capture d'écran intégrée et une création de bout en bout à partir d'une idée initiale. Pour les entreprises et les équipes qui produisent du contenu régulièrement, cette mise à jour réduit considérablement le temps et les compétences techniques nécessaires à la production vidéo. Là où il fallait auparavant un outil de montage, des assets sonores et un opérateur formé, Google Vids promet de compresser ce workflow en quelques clics. La cible est clairement professionnelle : présentations internes, formations, communications corporate, ou contenus marketing légers, sans passer par une agence ou un logiciel spécialisé. Google positionne Vids comme le pendant vidéo de Google Slides dans l'écosystème Workspace, capitalisant sur sa base d'utilisateurs enterprise déjà captive. La montée en puissance de Veo, son modèle vidéo génératif, s'inscrit dans une compétition directe avec Sora d'OpenAI et Runway. En intégrant ces capacités directement dans Workspace plutôt qu'en produit autonome, Google mise sur l'effet d'adoption naturelle, là où ses concurrents doivent convaincre les utilisateurs de changer d'outil. La question reste de savoir si la qualité des rendus sera suffisante pour des usages professionnels exigeants.

UEGoogle Workspace étant massivement déployé dans les entreprises françaises et européennes, cette mise à jour impacte directement les équipes qui produisent du contenu vidéo dans cet écosystème.

AutreOutil
1 source
Why AI Systems Fail Quietly
4IEEE Spectrum AI 

Why AI Systems Fail Quietly

Dans les systèmes d'intelligence artificielle distribués, une nouvelle catégorie de pannes préoccupe de plus en plus les ingénieurs : des défaillances silencieuses où tout semble fonctionner normalement, les tableaux de bord restent au vert, les journaux d'erreurs sont vides, et pourtant les décisions produites par le système se dégradent progressivement. L'exemple typique est celui d'un assistant IA d'entreprise chargé de synthétiser des mises à jour réglementaires pour des analystes financiers : il continue de générer des résumés cohérents, de récupérer des documents valides, de distribuer ses synthèses sans interruption, mais il travaille silencieusement sur des informations obsolètes parce qu'un dépôt documentaire mis à jour n'a jamais été intégré à son pipeline de récupération. Aucune alerte ne se déclenche. Aucun composant ne tombe en panne. Le système fonctionne exactement comme prévu, mais son résultat est faux. Ce phénomène représente une rupture fondamentale avec la manière dont l'industrie logicielle a traditionnellement pensé la fiabilité. Les outils d'observabilité classiques, conçus autour de métriques comme la disponibilité, la latence et les taux d'erreur, sont bien adaptés aux applications transactionnelles où chaque requête est traitée indépendamment et où la correction peut être vérifiée immédiatement. Ils deviennent insuffisants face aux systèmes autonomes, qui fonctionnent en boucles de raisonnement continues : chaque décision influence les actions suivantes, et la correction du résultat émerge non pas d'un calcul isolé mais d'une séquence d'interactions entre composants, étalée dans le temps. Un agent de planification peut générer des étapes localement raisonnables mais globalement dangereuses. Un système de décision distribué peut exécuter des actions correctes dans le mauvais ordre. Aucune de ces conditions ne produit nécessairement d'erreur au sens technique du terme. La cause profonde est architecturale. Les logiciels traditionnels reposent sur des opérations discrètes, déclenchées de l'extérieur par un utilisateur ou un planificateur, avec un contrôle épisodique et traçable. Les systèmes autonomes modernes, qu'il s'agisse d'agents IA maintenant un contexte entre les interactions, de systèmes d'infrastructure ajustant leurs ressources en temps réel ou de workflows automatisés enchaînant des actions sans intervention humaine, observent, raisonnent et agissent en continu. La correction ne dépend plus du bon fonctionnement de chaque composant individuel, mais de la coordination dans le temps d'un flux de décisions prises par des modèles, des moteurs de raisonnement et des algorithmes de planification. Les ingénieurs spécialisés dans les systèmes distribués connaissent bien les problèmes de coordination, mais il s'agit ici d'une coordination d'un type nouveau : non plus maintenir la cohérence des données entre services, mais garantir qu'une chaîne de décisions autonomes reste alignée avec l'intention initiale du système, même lorsque rien ne se casse.

AutreOpinion
1 source