Aller au contenu principal
Les domaines accessibles à vos agents IA sont désormais configurables
AutreAWS ML Blog1h

Les domaines accessibles à vos agents IA sont désormais configurables

1 source couvre ce sujet·Source originale ↗·

Amazon a dévoilé une architecture de sécurité pour ses agents IA déployés via Amazon Bedrock AgentCore, permettant aux entreprises de contrôler précisément quels domaines internet ces agents peuvent atteindre. La solution repose sur AWS Network Firewall, configuré dans un Amazon VPC (Virtual Private Cloud) privé, qui inspecte les en-têtes SNI (Server Name Indication) des connexions TLS pour filtrer le trafic sortant. Concrètement, les équipes peuvent définir une liste blanche de domaines autorisés — par exemple wikipedia.org ou stackoverflow.com — bloquer des catégories entières comme les réseaux sociaux ou les sites de jeux d'argent, et appliquer une politique de refus par défaut pour tout domaine non explicitement approuvé. Tous les tentatives de connexion sont journalisées, ce qui permet un suivi d'audit et une conformité réglementaire. AgentCore intègre trois outils managés concernés : un navigateur web (Browser), un interpréteur de code (Code Interpreter) et un environnement d'exécution (Runtime).

Cette capacité de filtrage répond à un besoin critique pour les entreprises déployant des agents IA dans des secteurs réglementés — finance, santé, défense. Sans contrôle réseau, un agent web autonome peut être manipulé via une attaque par injection de prompt pour naviguer vers des sites non autorisés, exfiltrer des données sensibles ou contacter des domaines malveillants. En restreignant le navigateur à une liste de domaines approuvés, la surface d'attaque est drastiquement réduite, indépendamment des instructions reçues par l'agent. Pour les fournisseurs SaaS multi-locataires, la granularité est encore plus fine : chaque client peut avoir sa propre politique réseau, avec des règles d'autorisation ou de blocage différentes selon le tenant, voire selon la région géographique ou le type d'exécution.

Cette annonce s'inscrit dans une tendance plus large de sécurisation des agents IA autonomes, un sujet qui monte en puissance à mesure que les déploiements en production se multiplient. Amazon Bedrock AgentCore est une plateforme relativement récente, et cette intégration avec Network Firewall constitue une première couche de défense en profondeur — AWS précise qu'elle peut être complétée par du filtrage DNS et de l'inspection de contenu. Des mécanismes complémentaires existent également côté accès entrant, via des politiques basées sur les ressources avec conditions sur l'IP source ou le VPC d'origine. La prochaine étape pour les entreprises sera probablement d'automatiser ces politiques réseau au niveau des pipelines CI/CD, pour que chaque déploiement d'agent embarque ses règles de filtrage dès le départ.

Impact France/UE

Les entreprises européennes déployant des agents IA sur AWS dans des secteurs réglementés (finance, santé) peuvent enforcer des politiques réseau conformes aux exigences de l'AI Act et des réglementations sectorielles.

À lire aussi

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes
1Ars Technica AI 

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes

Anthropic a lancé cette semaine une procédure DMCA auprès de GitHub pour faire retirer le code source de son client Claude Code, qui avait fuité récemment. La notice ciblait un dépôt initial publié par l'utilisateur GitHub "nirholas" ainsi qu'une centaine de forks spécifiquement nommés. Mais GitHub, estimant que "la majorité des forks enfreignaient les droits au même titre que le dépôt parent", a étendu le retrait à un réseau de 8 100 dépôts. Cette action a été depuis partiellement annulée. Le problème : cette suppression massive a touché de nombreux dépôts parfaitement légitimes, qui ne contenaient pas le code fuité mais forkaient simplement le dépôt public officiel de Claude Code qu'Anthropic maintient pour encourager les rapports de bugs et les contributions de la communauté. Des développeurs se sont exprimés sur les réseaux sociaux pour dénoncer leur inclusion dans ce filet DMCA alors qu'ils n'avaient partagé aucune donnée illicite. Au-delà du désagrément immédiat, l'incident illustre les limites des outils juridiques face à la viralité du code sur GitHub : une fois un dépôt forké des milliers de fois, toute tentative de suppression exhaustive devient presque impossible à cibler avec précision. Cette fuite s'inscrit dans un contexte de tension croissante autour de la propriété intellectuelle des outils d'IA. Claude Code est l'environnement de développement assisté d'Anthropic, concurrent direct de GitHub Copilot et des outils de Cursor. Que son code source circule librement représente un risque stratégique non négligeable pour la startup, valorisée à plusieurs milliards de dollars. L'épisode révèle aussi les effets de bord des procédures DMCA automatisées sur GitHub, où la logique de réseau des forks rend difficile toute chirurgie juridique fine. Anthropic reste confronté à un défi considérable pour limiter la propagation du code fuité, désormais largement distribué.

UEDes développeurs européens ayant forké le dépôt officiel de Claude Code ont vu leurs projets supprimés à tort, mais l'incident relève du droit américain (DMCA) sans implications réglementaires directes pour la France ou l'UE.

AutreReglementation
1 source
L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple
2The Verge AI 

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple

La startup californienne Kintsugi, fondée il y a sept ans, vient d'annoncer sa fermeture après avoir échoué à obtenir l'autorisation de la FDA pour son outil d'intelligence artificielle capable de détecter des signes de dépression et d'anxiété dans la voix humaine. Faute de clairance réglementaire obtenue dans les délais, l'entreprise a décidé de rendre la majeure partie de sa technologie disponible en open source. Certains composants pourraient trouver une seconde vie en dehors du secteur médical, notamment pour détecter les deepfakes audio. L'évaluation de la santé mentale repose encore aujourd'hui quasi exclusivement sur des questionnaires remplis par les patients et des entretiens cliniques, contrairement à la médecine physique qui s'appuie sur des analyses biologiques ou des imageries. L'approche de Kintsugi était radicalement différente : son logiciel n'analysait pas ce qu'une personne disait, mais la manière dont elle le disait, en cherchant dans les modulations vocales des marqueurs de troubles psychiques. Cette technologie représentait une promesse réelle de dépistage précoce et objectif, accessible sans infrastructure médicale lourde. Le parcours de Kintsugi illustre la difficulté structurelle d'introduire des outils d'IA dans le domaine médical aux États-Unis. La FDA soumet les dispositifs de diagnostic à des exigences strictes de validation clinique, un processus long et coûteux qui épuise souvent les ressources des startups avant qu'elles n'atteignent le marché. L'abandon de cette technologie au profit de l'open source pourrait néanmoins permettre à des chercheurs ou d'autres entreprises de poursuivre ces travaux, dans un contexte où la détection automatisée de la santé mentale reste un enjeu médical et technologique majeur.

UELe cas Kintsugi illustre les obstacles que rencontreront les startups européennes soumises à l'AI Act, qui classe les outils d'IA diagnostique médicale en risque élevé avec des exigences de validation clinique tout aussi contraignantes.

AutreReglementation
1 source
5 bonnes pratiques pour sécuriser les systèmes d'IA
3AI News 

5 bonnes pratiques pour sécuriser les systèmes d'IA

Les organisations qui intègrent l'intelligence artificielle dans leurs opérations critiques font face à une surface d'attaque inédite que les cadres de sécurité traditionnels n'ont pas été conçus pour couvrir. Face à cette réalité, cinq pratiques fondamentales se dégagent pour protéger ces systèmes : contrôle d'accès strict, défense contre les menaces propres aux modèles, visibilité unifiée de l'écosystème, surveillance continue et gestion rigoureuse des vulnérabilités. Le contrôle d'accès basé sur les rôles (RBAC) limite l'exposition en n'accordant les permissions qu'aux personnes dont la fonction le justifie. Le chiffrement des modèles et des données d'entraînement, aussi bien au repos qu'en transit, constitue une protection indispensable, notamment lorsque ces données contiennent du code propriétaire ou des informations personnelles. Sur le front des menaces spécifiques aux LLM, l'injection de prompt occupe la première place du classement OWASP Top 10 pour les applications à base de grands modèles de langage : un attaquant insère des instructions malveillantes dans une entrée pour détourner le comportement du modèle. Des pare-feux spécialisés pour l'IA, capables de valider et d'assainir les entrées avant qu'elles n'atteignent le modèle, constituent une première ligne de défense directe. Des exercices de red teaming simulant des scénarios réels — empoisonnement de données, attaques par inversion de modèle — permettent de détecter les failles avant que des acteurs malveillants ne les exploitent. L'enjeu dépasse la simple protection technique : c'est la fiabilité de systèmes désormais embarqués dans des décisions critiques qui est en jeu. Un modèle compromis par injection de prompt peut divulguer des données confidentielles, produire des sorties trompeuses ou servir de point d'entrée latéral vers d'autres systèmes. La fragmentation des outils de sécurité aggrave le problème : lorsque les données de télémétrie réseau, cloud, identité et endpoints restent cloisonnées, les équipes ne peuvent pas corréler une connexion anormale, un mouvement latéral et une tentative d'exfiltration en un tableau de menace cohérent. Le cadre de cybersécurité pour l'IA du NIST est explicite sur ce point : sécuriser ces systèmes implique de couvrir l'ensemble des actifs concernés, pas seulement les plus visibles. La sécurité de l'IA ne peut pas être une configuration ponctuelle, car les modèles évoluent en permanence : mises à jour, nouveaux pipelines de données, changements de comportement des utilisateurs. Les outils de détection basés sur des règles statiques peinent à suivre ce rythme, car ils s'appuient sur des signatures d'attaques connues plutôt que sur une analyse comportementale en temps réel. La surveillance continue permet d'établir une baseline comportementale et de signaler immédiatement les déviations : sorties inattendues d'un modèle, variation soudaine dans les appels API, ou accès inhabituels d'un compte privilégié. Ce contexte s'inscrit dans une prise de conscience plus large de l'industrie : les incidents liés à l'IA — du biais algorithmique aux attaques adversariales sophistiquées — se multiplient à mesure que ces systèmes gagnent en puissance et en déploiement, rendant une stratégie de défense en profondeur non plus optionnelle, mais structurellement nécessaire.

UEL'AI Act européen imposant des exigences de sécurité pour les systèmes à haut risque, ces pratiques sont directement pertinentes pour les organisations européennes en phase de mise en conformité.

AutreOpinion
1 source
La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal
4AI News 

La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal

La Chine a adopté son 15e Plan quinquennal, un document de planification stratégique couvrant la période 2025-2030, qui place l'intelligence artificielle au coeur des priorités nationales. L'IA y est citée aux côtés de l'informatique quantique, de la biotechnologie et de l'énergie comme axe fondamental de la politique scientifique du pays. Le plan appelle explicitement au développement de puces IA haute performance, à la recherche sur de nouvelles architectures de modèles et leurs algorithmes sous-jacents, ainsi qu'à l'expansion des réseaux de communication 5G+ et 6G pour supporter les charges de travail IA. Sur le plan des infrastructures numériques, le gouvernement prévoit la création de hubs nationaux de calcul baptisés "clusters de calcul intelligent", accessibles via des mécanismes de marché comme la location de ressources computationnelles pour toucher le plus grand nombre d'acteurs économiques, y compris les petites entreprises. L'impact concret de ce plan s'étend à presque tous les secteurs de l'économie chinoise. Dans l'industrie, l'agriculture, l'énergie et les services, le gouvernement entend accroître le recours à l'IA dans la conception industrielle, la gestion des processus de production, et les opérations logistiques. Pour les consommateurs, Pékin veut multiplier les appareils compatibles IA, des smartphones aux robots, et intégrer la technologie dans l'éducation avec des systèmes d'apprentissage adaptatif, dans la santé avec des outils d'aide au diagnostic, et dans les services à la personne pour la gestion du vieillissement de la population. Au niveau de l'administration publique, les services numériques de l'ensemble du secteur public devront s'appuyer sur des systèmes de données intégrés et des modèles standardisés, y compris pour l'évaluation des risques liés à la sécurité publique. Ce plan s'inscrit dans une compétition technologique mondiale qui oppose la Chine aux États-Unis sur le terrain de la suprématie en IA. Le document révèle une approche assez fermée sur la coopération internationale, se limitant à une participation prudente aux discussions sur les standards mondiaux relatifs aux flux de données et aux infrastructures. Sur le plan de la gouvernance, le texte consacre une partie substantielle à la régulation, réclamant des cadres juridiques spécifiques à l'IA, notamment des règles sur l'enregistrement des nouveaux algorithmes, la sécurité et la transparence, tout en identifiant des risques tels que le détournement de données et les deepfakes. Le niveau de généralité du document laisse cependant peu de détails sur les mesures concrètes à venir : les véritables arbitrages stratégiques de Pékin se dessineront au fil des cinq prochaines années, à travers les politiques sectorielles et les investissements publics qui viendront préciser ces grandes orientations.

UELa rivalité sino-américaine pour la suprématie en IA accentue la pression sur l'UE pour accélérer sa propre stratégie industrielle et affirmer sa souveraineté numérique face à deux blocs qui tendent à définir seuls les standards mondiaux.

AutreReglementation
1 source