Aller au contenu principal
Yoshua Bengio, Prix Turing 2018, lanceur d’alerte sur l’intelligence artificielle
AutreLe Monde Pixels1h

Yoshua Bengio, Prix Turing 2018, lanceur d’alerte sur l’intelligence artificielle

1 source couvre ce sujet·Source originale ↗·

Yoshua Bengio, lauréat du prix Turing 2018 avec Geoffrey Hinton et Yann LeCun pour leurs travaux fondateurs sur l'apprentissage profond, s'est progressivement imposé comme l'une des voix les plus influentes en faveur d'une régulation stricte de l'intelligence artificielle. Chercheur à l'Université de Montréal et fondateur du MILA, il a co-signé en 2023 la lettre ouverte appelant à une pause dans le développement des IA les plus puissantes, et témoigné devant plusieurs gouvernements, dont le Sénat américain et le Parlement européen.

Sa prise de position tranche avec celle de son collègue Yann LeCun, directeur scientifique de Meta AI, qui minimise les risques existentiels liés à l'IA. Bengio estime au contraire que les systèmes actuels évoluent trop vite pour que les garde-fous éthiques et réglementaires puissent suivre, mettant en danger aussi bien les démocraties que la sécurité mondiale.

Ce tournant s'inscrit dans un contexte où plusieurs pionniers du domaine — dont Geoffrey Hinton, qui a quitté Google en 2023 — ont choisi de sonner l'alarme publiquement. Bengio milite désormais pour un traité international sur l'IA, comparable aux conventions sur les armes biologiques, et collabore avec l'ONU et plusieurs gouvernements pour en poser les bases.

Impact France/UE

Bengio a témoigné devant le Parlement européen et milite pour un traité international sur l'IA, influençant directement le cadre réglementaire de l'AI Act et les débats institutionnels européens.

À lire aussi

Les domaines accessibles à vos agents IA sont désormais configurables
1AWS ML Blog 

Les domaines accessibles à vos agents IA sont désormais configurables

Amazon a dévoilé une architecture de sécurité pour ses agents IA déployés via Amazon Bedrock AgentCore, permettant aux entreprises de contrôler précisément quels domaines internet ces agents peuvent atteindre. La solution repose sur AWS Network Firewall, configuré dans un Amazon VPC (Virtual Private Cloud) privé, qui inspecte les en-têtes SNI (Server Name Indication) des connexions TLS pour filtrer le trafic sortant. Concrètement, les équipes peuvent définir une liste blanche de domaines autorisés — par exemple wikipedia.org ou stackoverflow.com — bloquer des catégories entières comme les réseaux sociaux ou les sites de jeux d'argent, et appliquer une politique de refus par défaut pour tout domaine non explicitement approuvé. Tous les tentatives de connexion sont journalisées, ce qui permet un suivi d'audit et une conformité réglementaire. AgentCore intègre trois outils managés concernés : un navigateur web (Browser), un interpréteur de code (Code Interpreter) et un environnement d'exécution (Runtime). Cette capacité de filtrage répond à un besoin critique pour les entreprises déployant des agents IA dans des secteurs réglementés — finance, santé, défense. Sans contrôle réseau, un agent web autonome peut être manipulé via une attaque par injection de prompt pour naviguer vers des sites non autorisés, exfiltrer des données sensibles ou contacter des domaines malveillants. En restreignant le navigateur à une liste de domaines approuvés, la surface d'attaque est drastiquement réduite, indépendamment des instructions reçues par l'agent. Pour les fournisseurs SaaS multi-locataires, la granularité est encore plus fine : chaque client peut avoir sa propre politique réseau, avec des règles d'autorisation ou de blocage différentes selon le tenant, voire selon la région géographique ou le type d'exécution. Cette annonce s'inscrit dans une tendance plus large de sécurisation des agents IA autonomes, un sujet qui monte en puissance à mesure que les déploiements en production se multiplient. Amazon Bedrock AgentCore est une plateforme relativement récente, et cette intégration avec Network Firewall constitue une première couche de défense en profondeur — AWS précise qu'elle peut être complétée par du filtrage DNS et de l'inspection de contenu. Des mécanismes complémentaires existent également côté accès entrant, via des politiques basées sur les ressources avec conditions sur l'IP source ou le VPC d'origine. La prochaine étape pour les entreprises sera probablement d'automatiser ces politiques réseau au niveau des pipelines CI/CD, pour que chaque déploiement d'agent embarque ses règles de filtrage dès le départ.

UELes entreprises européennes déployant des agents IA sur AWS dans des secteurs réglementés (finance, santé) peuvent enforcer des politiques réseau conformes aux exigences de l'AI Act et des réglementations sectorielles.

AutreActu
1 source
La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal
2AI News 

La Chine détaille ses objectifs de déploiement de l'IA dans son plan quinquennal

La Chine a adopté son 15e Plan quinquennal, un document de planification stratégique couvrant la période 2025-2030, qui place l'intelligence artificielle au coeur des priorités nationales. L'IA y est citée aux côtés de l'informatique quantique, de la biotechnologie et de l'énergie comme axe fondamental de la politique scientifique du pays. Le plan appelle explicitement au développement de puces IA haute performance, à la recherche sur de nouvelles architectures de modèles et leurs algorithmes sous-jacents, ainsi qu'à l'expansion des réseaux de communication 5G+ et 6G pour supporter les charges de travail IA. Sur le plan des infrastructures numériques, le gouvernement prévoit la création de hubs nationaux de calcul baptisés "clusters de calcul intelligent", accessibles via des mécanismes de marché comme la location de ressources computationnelles pour toucher le plus grand nombre d'acteurs économiques, y compris les petites entreprises. L'impact concret de ce plan s'étend à presque tous les secteurs de l'économie chinoise. Dans l'industrie, l'agriculture, l'énergie et les services, le gouvernement entend accroître le recours à l'IA dans la conception industrielle, la gestion des processus de production, et les opérations logistiques. Pour les consommateurs, Pékin veut multiplier les appareils compatibles IA, des smartphones aux robots, et intégrer la technologie dans l'éducation avec des systèmes d'apprentissage adaptatif, dans la santé avec des outils d'aide au diagnostic, et dans les services à la personne pour la gestion du vieillissement de la population. Au niveau de l'administration publique, les services numériques de l'ensemble du secteur public devront s'appuyer sur des systèmes de données intégrés et des modèles standardisés, y compris pour l'évaluation des risques liés à la sécurité publique. Ce plan s'inscrit dans une compétition technologique mondiale qui oppose la Chine aux États-Unis sur le terrain de la suprématie en IA. Le document révèle une approche assez fermée sur la coopération internationale, se limitant à une participation prudente aux discussions sur les standards mondiaux relatifs aux flux de données et aux infrastructures. Sur le plan de la gouvernance, le texte consacre une partie substantielle à la régulation, réclamant des cadres juridiques spécifiques à l'IA, notamment des règles sur l'enregistrement des nouveaux algorithmes, la sécurité et la transparence, tout en identifiant des risques tels que le détournement de données et les deepfakes. Le niveau de généralité du document laisse cependant peu de détails sur les mesures concrètes à venir : les véritables arbitrages stratégiques de Pékin se dessineront au fil des cinq prochaines années, à travers les politiques sectorielles et les investissements publics qui viendront préciser ces grandes orientations.

UELa rivalité sino-américaine pour la suprématie en IA accentue la pression sur l'UE pour accélérer sa propre stratégie industrielle et affirmer sa souveraineté numérique face à deux blocs qui tendent à définir seuls les standards mondiaux.

AutreReglementation
1 source
Une erreur humaine provoque une fuite massive du code de Claude
3Siècle Digital 

Une erreur humaine provoque une fuite massive du code de Claude

Le 31 mars 2026, Anthropic a accidentellement publié du code source interne de Claude dans la version 2.1.88 de son outil Claude Code, disponible sur le registre npm. L'incident n'a rien d'un acte de piratage ou d'espionnage industriel : une équipe a simplement oublié d'exclure un fichier sensible avant la mise en ligne du package. Le code s'est retrouvé accessible publiquement le temps que l'erreur soit détectée et corrigée. La fuite expose une vulnérabilité organisationnelle chez l'un des acteurs les plus scrutés de l'IA. Pour Anthropic, dont la valorisation dépasse les 60 milliards de dollars et dont les modèles sont utilisés par des milliers d'entreprises, laisser du code propriétaire fuiter via un registre public constitue une erreur de processus significative. Selon la nature du code exposé, cela peut révéler des détails d'implémentation, des logiques internes ou des pipelines de traitement qui alimentent directement la recherche concurrentielle. Cet incident s'inscrit dans un contexte où les grandes entreprises d'IA multiplient les outils destinés aux développeurs, souvent publiés à cadence rapide sur des registres ouverts comme npm ou PyPI. Cette vélocité augmente le risque d'erreurs humaines dans les pipelines de publication, un angle mort classique des équipes d'ingénierie sous pression. Anthropic n'est pas la première société à subir ce type de fuite par négligence, mais l'incident rappelle que la sécurité des actifs intellectuels dans l'IA passe aussi par des garde-fous élémentaires dans le cycle de livraison logicielle.

AutreOpinion
1 source
Experian révèle un paradoxe de fraude dans l'adoption de l'IA par les services financiers
4AI News 

Experian révèle un paradoxe de fraude dans l'adoption de l'IA par les services financiers

Experian a publié début 2026 son rapport annuel sur les tendances de la fraude, et les chiffres sont édifiants : les consommateurs américains ont perdu plus de 12,5 milliards de dollars à cause de la fraude en 2024, selon les données de la FTC. Sur la même période, près de 60 % des entreprises interrogées par Experian ont signalé une augmentation de leurs pertes liées à la fraude entre 2024 et 2025. En face, les solutions de prévention d'Experian auraient permis à ses clients d'éviter environ 19 milliards de dollars de pertes frauduleuses dans le monde en 2025. Le rapport identifie cinq grandes menaces pour 2026, dont la plus préoccupante est ce que l'entreprise appelle le « machine-to-machine mayhem » : le moment où des agents IA autonomes, conçus pour effectuer des transactions au nom des utilisateurs, deviennent indiscernables des bots que les fraudeurs déploient à exactement les mêmes fins. Ce paradoxe révèle une faille structurelle dans l'adoption de l'IA par le secteur financier. Plus les organisations intègrent des agents capables de décisions autonomes, plus elles offrent aux fraudeurs une surface d'attaque à très grande échelle et à vitesse non humaine. La question de la responsabilité légale reste entière : quand un agent IA initie une transaction qui s'avère frauduleuse, personne ne sait clairement qui est responsable. Kathleen Peters, directrice de l'innovation fraude chez Experian North America, résume l'enjeu : « La technologie accélère l'évolution de la fraude, la rendant plus sophistiquée et plus difficile à détecter. » D'autres menaces identifiées dans le rapport sont tout aussi concrètes : des candidats deepfake infiltrent les processus de recrutement à distance — le FBI et le DOJ ont multiplié les alertes en 2025 sur des opératives nord-coréens ayant ainsi obtenu des postes dans des entreprises américaines. Les bots de type romance scam deviennent émotionnellement convaincants grâce à l'IA générative, tandis que le clonage de sites web par IA surcharge les équipes antifraude avec des domaines usurpés qui ressurgissent même après suppression. Enfin, les appareils connectés — assistants vocaux, serrures intelligentes — ouvrent de nouveaux points d'entrée dans les données personnelles. Ce rapport arrive à un moment charnière : 2026 s'annonce comme l'année où l'industrie sera forcée de trancher des questions de gouvernance sur l'IA agentique que personne n'a encore voulu aborder frontalement. Amazon a déjà bloqué les agents IA tiers de son écosystème, invoquant des raisons de sécurité — un signal précoce de la tension à venir entre innovation et protection. Experian, acteur central du scoring et de la vérification d'identité, se retrouve dans une position ambivalente : vendre des outils IA de défense tout en documentant comment ces mêmes outils alimentent l'offensive. Le secteur financier entre dans une course aux armements algorithmique où la vitesse d'adaptation sera le principal avantage concurrentiel — et où les régulateurs n'ont pas encore de réponse claire à apporter.

UELes institutions financières européennes utilisant des agents IA pour les transactions automatisées sont exposées aux mêmes risques de fraude machine-à-machine, dans un contexte où l'AI Act impose des exigences de gouvernance sur les systèmes IA à haut risque dans le secteur financier.

AutreActu
1 source