Aller au contenu principal
La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal
AutreAI News1h

La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal

1 source couvre ce sujet·Source originale ↗·

La Chine a adopté son 15e Plan quinquennal, un document de planification stratégique couvrant la période 2025-2030, qui place l'intelligence artificielle au coeur des priorités nationales. L'IA y est citée aux côtés de l'informatique quantique, de la biotechnologie et de l'énergie comme axe fondamental de la politique scientifique du pays. Le plan appelle explicitement au développement de puces IA haute performance, à la recherche sur de nouvelles architectures de modèles et leurs algorithmes sous-jacents, ainsi qu'à l'expansion des réseaux de communication 5G+ et 6G pour supporter les charges de travail IA. Sur le plan des infrastructures numériques, le gouvernement prévoit la création de hubs nationaux de calcul baptisés "clusters de calcul intelligent", accessibles via des mécanismes de marché comme la location de ressources computationnelles pour toucher le plus grand nombre d'acteurs économiques, y compris les petites entreprises.

L'impact concret de ce plan s'étend à presque tous les secteurs de l'économie chinoise. Dans l'industrie, l'agriculture, l'énergie et les services, le gouvernement entend accroître le recours à l'IA dans la conception industrielle, la gestion des processus de production, et les opérations logistiques. Pour les consommateurs, Pékin veut multiplier les appareils compatibles IA, des smartphones aux robots, et intégrer la technologie dans l'éducation avec des systèmes d'apprentissage adaptatif, dans la santé avec des outils d'aide au diagnostic, et dans les services à la personne pour la gestion du vieillissement de la population. Au niveau de l'administration publique, les services numériques de l'ensemble du secteur public devront s'appuyer sur des systèmes de données intégrés et des modèles standardisés, y compris pour l'évaluation des risques liés à la sécurité publique.

Ce plan s'inscrit dans une compétition technologique mondiale qui oppose la Chine aux États-Unis sur le terrain de la suprématie en IA. Le document révèle une approche assez fermée sur la coopération internationale, se limitant à une participation prudente aux discussions sur les standards mondiaux relatifs aux flux de données et aux infrastructures. Sur le plan de la gouvernance, le texte consacre une partie substantielle à la régulation, réclamant des cadres juridiques spécifiques à l'IA, notamment des règles sur l'enregistrement des nouveaux algorithmes, la sécurité et la transparence, tout en identifiant des risques tels que le détournement de données et les deepfakes. Le niveau de généralité du document laisse cependant peu de détails sur les mesures concrètes à venir : les véritables arbitrages stratégiques de Pékin se dessineront au fil des cinq prochaines années, à travers les politiques sectorielles et les investissements publics qui viendront préciser ces grandes orientations.

Impact France/UE

La rivalité sino-américaine pour la suprématie en IA accentue la pression sur l'UE pour accélérer sa propre stratégie industrielle et affirmer sa souveraineté numérique face à deux blocs qui tendent à définir seuls les standards mondiaux.

À lire aussi

1Ars Technica AI 

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes

Anthropic a lancé cette semaine une procédure DMCA auprès de GitHub pour faire retirer le code source de son client Claude Code, qui avait fuité récemment. La notice ciblait un dépôt initial publié par l'utilisateur GitHub "nirholas" ainsi qu'une centaine de forks spécifiquement nommés. Mais GitHub, estimant que "la majorité des forks enfreignaient les droits au même titre que le dépôt parent", a étendu le retrait à un réseau de 8 100 dépôts. Cette action a été depuis partiellement annulée. Le problème : cette suppression massive a touché de nombreux dépôts parfaitement légitimes, qui ne contenaient pas le code fuité mais forkaient simplement le dépôt public officiel de Claude Code qu'Anthropic maintient pour encourager les rapports de bugs et les contributions de la communauté. Des développeurs se sont exprimés sur les réseaux sociaux pour dénoncer leur inclusion dans ce filet DMCA alors qu'ils n'avaient partagé aucune donnée illicite. Au-delà du désagrément immédiat, l'incident illustre les limites des outils juridiques face à la viralité du code sur GitHub : une fois un dépôt forké des milliers de fois, toute tentative de suppression exhaustive devient presque impossible à cibler avec précision. Cette fuite s'inscrit dans un contexte de tension croissante autour de la propriété intellectuelle des outils d'IA. Claude Code est l'environnement de développement assisté d'Anthropic, concurrent direct de GitHub Copilot et des outils de Cursor. Que son code source circule librement représente un risque stratégique non négligeable pour la startup, valorisée à plusieurs milliards de dollars. L'épisode révèle aussi les effets de bord des procédures DMCA automatisées sur GitHub, où la logique de réseau des forks rend difficile toute chirurgie juridique fine. Anthropic reste confronté à un défi considérable pour limiter la propagation du code fuité, désormais largement distribué.

UEDes développeurs européens ayant forké le dépôt officiel de Claude Code ont vu leurs projets supprimés à tort, mais l'incident relève du droit américain (DMCA) sans implications réglementaires directes pour la France ou l'UE.

AutreReglementation
1 source
5 bonnes pratiques pour sécuriser les systèmes d'IA
2AI News 

5 bonnes pratiques pour sécuriser les systèmes d'IA

Les organisations qui intègrent l'intelligence artificielle dans leurs opérations critiques font face à une surface d'attaque inédite que les cadres de sécurité traditionnels n'ont pas été conçus pour couvrir. Face à cette réalité, cinq pratiques fondamentales se dégagent pour protéger ces systèmes : contrôle d'accès strict, défense contre les menaces propres aux modèles, visibilité unifiée de l'écosystème, surveillance continue et gestion rigoureuse des vulnérabilités. Le contrôle d'accès basé sur les rôles (RBAC) limite l'exposition en n'accordant les permissions qu'aux personnes dont la fonction le justifie. Le chiffrement des modèles et des données d'entraînement, aussi bien au repos qu'en transit, constitue une protection indispensable, notamment lorsque ces données contiennent du code propriétaire ou des informations personnelles. Sur le front des menaces spécifiques aux LLM, l'injection de prompt occupe la première place du classement OWASP Top 10 pour les applications à base de grands modèles de langage : un attaquant insère des instructions malveillantes dans une entrée pour détourner le comportement du modèle. Des pare-feux spécialisés pour l'IA, capables de valider et d'assainir les entrées avant qu'elles n'atteignent le modèle, constituent une première ligne de défense directe. Des exercices de red teaming simulant des scénarios réels — empoisonnement de données, attaques par inversion de modèle — permettent de détecter les failles avant que des acteurs malveillants ne les exploitent. L'enjeu dépasse la simple protection technique : c'est la fiabilité de systèmes désormais embarqués dans des décisions critiques qui est en jeu. Un modèle compromis par injection de prompt peut divulguer des données confidentielles, produire des sorties trompeuses ou servir de point d'entrée latéral vers d'autres systèmes. La fragmentation des outils de sécurité aggrave le problème : lorsque les données de télémétrie réseau, cloud, identité et endpoints restent cloisonnées, les équipes ne peuvent pas corréler une connexion anormale, un mouvement latéral et une tentative d'exfiltration en un tableau de menace cohérent. Le cadre de cybersécurité pour l'IA du NIST est explicite sur ce point : sécuriser ces systèmes implique de couvrir l'ensemble des actifs concernés, pas seulement les plus visibles. La sécurité de l'IA ne peut pas être une configuration ponctuelle, car les modèles évoluent en permanence : mises à jour, nouveaux pipelines de données, changements de comportement des utilisateurs. Les outils de détection basés sur des règles statiques peinent à suivre ce rythme, car ils s'appuient sur des signatures d'attaques connues plutôt que sur une analyse comportementale en temps réel. La surveillance continue permet d'établir une baseline comportementale et de signaler immédiatement les déviations : sorties inattendues d'un modèle, variation soudaine dans les appels API, ou accès inhabituels d'un compte privilégié. Ce contexte s'inscrit dans une prise de conscience plus large de l'industrie : les incidents liés à l'IA — du biais algorithmique aux attaques adversariales sophistiquées — se multiplient à mesure que ces systèmes gagnent en puissance et en déploiement, rendant une stratégie de défense en profondeur non plus optionnelle, mais structurellement nécessaire.

UEL'AI Act européen imposant des exigences de sécurité pour les systèmes à haut risque, ces pratiques sont directement pertinentes pour les organisations européennes en phase de mise en conformité.

AutreOpinion
1 source
Les domaines accessibles à vos agents IA sont désormais configurables
3AWS ML Blog 

Les domaines accessibles à vos agents IA sont désormais configurables

Amazon a dévoilé une architecture de sécurité pour ses agents IA déployés via Amazon Bedrock AgentCore, permettant aux entreprises de contrôler précisément quels domaines internet ces agents peuvent atteindre. La solution repose sur AWS Network Firewall, configuré dans un Amazon VPC (Virtual Private Cloud) privé, qui inspecte les en-têtes SNI (Server Name Indication) des connexions TLS pour filtrer le trafic sortant. Concrètement, les équipes peuvent définir une liste blanche de domaines autorisés — par exemple wikipedia.org ou stackoverflow.com — bloquer des catégories entières comme les réseaux sociaux ou les sites de jeux d'argent, et appliquer une politique de refus par défaut pour tout domaine non explicitement approuvé. Tous les tentatives de connexion sont journalisées, ce qui permet un suivi d'audit et une conformité réglementaire. AgentCore intègre trois outils managés concernés : un navigateur web (Browser), un interpréteur de code (Code Interpreter) et un environnement d'exécution (Runtime). Cette capacité de filtrage répond à un besoin critique pour les entreprises déployant des agents IA dans des secteurs réglementés — finance, santé, défense. Sans contrôle réseau, un agent web autonome peut être manipulé via une attaque par injection de prompt pour naviguer vers des sites non autorisés, exfiltrer des données sensibles ou contacter des domaines malveillants. En restreignant le navigateur à une liste de domaines approuvés, la surface d'attaque est drastiquement réduite, indépendamment des instructions reçues par l'agent. Pour les fournisseurs SaaS multi-locataires, la granularité est encore plus fine : chaque client peut avoir sa propre politique réseau, avec des règles d'autorisation ou de blocage différentes selon le tenant, voire selon la région géographique ou le type d'exécution. Cette annonce s'inscrit dans une tendance plus large de sécurisation des agents IA autonomes, un sujet qui monte en puissance à mesure que les déploiements en production se multiplient. Amazon Bedrock AgentCore est une plateforme relativement récente, et cette intégration avec Network Firewall constitue une première couche de défense en profondeur — AWS précise qu'elle peut être complétée par du filtrage DNS et de l'inspection de contenu. Des mécanismes complémentaires existent également côté accès entrant, via des politiques basées sur les ressources avec conditions sur l'IP source ou le VPC d'origine. La prochaine étape pour les entreprises sera probablement d'automatiser ces politiques réseau au niveau des pipelines CI/CD, pour que chaque déploiement d'agent embarque ses règles de filtrage dès le départ.

UELes entreprises européennes déployant des agents IA sur AWS dans des secteurs réglementés (finance, santé) peuvent enforcer des politiques réseau conformes aux exigences de l'AI Act et des réglementations sectorielles.

AutreActu
1 source
Une erreur humaine provoque une fuite massive du code de Claude
4Siècle Digital 

Une erreur humaine provoque une fuite massive du code de Claude

Le 31 mars 2026, Anthropic a accidentellement publié du code source interne de Claude dans la version 2.1.88 de son outil Claude Code, disponible sur le registre npm. L'incident n'a rien d'un acte de piratage ou d'espionnage industriel : une équipe a simplement oublié d'exclure un fichier sensible avant la mise en ligne du package. Le code s'est retrouvé accessible publiquement le temps que l'erreur soit détectée et corrigée. La fuite expose une vulnérabilité organisationnelle chez l'un des acteurs les plus scrutés de l'IA. Pour Anthropic, dont la valorisation dépasse les 60 milliards de dollars et dont les modèles sont utilisés par des milliers d'entreprises, laisser du code propriétaire fuiter via un registre public constitue une erreur de processus significative. Selon la nature du code exposé, cela peut révéler des détails d'implémentation, des logiques internes ou des pipelines de traitement qui alimentent directement la recherche concurrentielle. Cet incident s'inscrit dans un contexte où les grandes entreprises d'IA multiplient les outils destinés aux développeurs, souvent publiés à cadence rapide sur des registres ouverts comme npm ou PyPI. Cette vélocité augmente le risque d'erreurs humaines dans les pipelines de publication, un angle mort classique des équipes d'ingénierie sous pression. Anthropic n'est pas la première société à subir ce type de fuite par négligence, mais l'incident rappelle que la sécurité des actifs intellectuels dans l'IA passe aussi par des garde-fous élémentaires dans le cycle de livraison logicielle.

AutreOpinion
1 source