500 000 agents sans kill switch : la sécurité agentique est en retard structurel sur le déploiement
OpenClaw, RSAC 2026, DeepMind et la fuite Claude Code ont posé en une semaine les mêmes constats : personne n'a encore résolu l'architecture de sécurité des agents autonomes, et le déploiement continue.
Sommaire (18 sections)
- OpenClaw à 500 000 instances : qu'est-ce qu'un agent sans kill switch révèle sur l'architecture de déploiement ?
- Les six vulnérabilités DeepMind face aux cinq frameworks RSAC : pourquoi la défense et le déploiement parlent des langues différentes ?
- Les capacités offensives doublent tous les 5,7 mois : comment lire cette courbe sans la banaliser ?
- La fuite Claude Code et LiteLLM : la supply chain IA est-elle le nouveau vecteur d'attaque prioritaire ?
- Des agents pour surveiller les agents : une solution robuste ou une nouvelle surface d'attaque ?
- Ce que ça révèle sur l'état réel de l'ingénierie de sécurité agentique en 2026
- Ce que ça signifie pour toi
- Pour les développeurs et équipes techniques
- Pour les décideurs et dirigeants
- Pour l'écosystème français et européen
- Comment sécuriser un agent IA autonome en production ?
- Qu'est-ce qu'un kill switch pour agent IA et pourquoi OpenClaw n'en avait pas ?
- Quelles sont les six vulnérabilités des agents IA identifiées par Google DeepMind ?
- La fuite du code source de Claude Code est-elle un risque pour les utilisateurs ?
- Pourquoi les capacités offensives de l'IA en cybersécurité sont-elles préoccupantes en 2026 ?
- Nos prédictions
- Questions fréquentes
- Sources
En 30 secondes
OpenClaw, RSAC 2026, DeepMind et la fuite Claude Code ont posé en une semaine les mêmes constats : personne n'a encore résolu l'architecture de sécurité des agents autonomes, et le déploiement continue.
Cinq frameworks d'identité pour agents IA ont été présentés à la RSA Conference 2026 la même semaine. Cinq équipes différentes. Cinq angles différents. Et exactement les mêmes trois lacunes critiques dans chacun d'eux.
Pendant ce temps, OpenClaw franchissait les 500 000 instances déployées sans mécanisme de désactivation centralisé. Et des chercheurs de Google DeepMind publiaient la première cartographie systématique des vecteurs d'attaque sur agents autonomes.
Ce n'est pas une coïncidence. C'est le portrait d'une industrie lancée dans une course folle où la sécurité est le cadet des soucis. Les principaux acteurs déploient d'abord, sécurisent après. Quand ils sécurisent.
OpenClaw à 500 000 instances : qu'est-ce qu'un agent sans kill switch révèle sur l'architecture de déploiement ?
Le 22 février, un acteur malveillant sous le pseudonyme "fluffy_nightmare" a mis en vente sur BreachForums un accès root au poste d'un PDG britannique pour 25 000 dollars. La marchandise principale : l'intégralité de son instance OpenClaw, avec historique de conversations, accès aux fichiers système, et clés API stockées en clair dans des Markdown personnels.
L'absence de kill switch dans OpenClaw n'est pas un oubli. C'est la conséquence directe d'une architecture distribuée : un framework open source librement forké, où chaque opérateur d'instance tourne de manière autonome. Il n'existe aucun mécanisme centralisé pour forcer une mise à jour ou désactiver l'ensemble du parc. Impossible par construction.
La réponse d'Anthropic a été de bloquer l'utilisation des abonnements Claude Pro et Max pour les agents tiers comme OpenClaw. Soyons clairs : cette décision est d'abord économique. Un abonnement à 200$/mois qui coûtait 5000$ en compute était insoutenable. La coupure protège les marges d'Anthropic, pas les 500 000 déploiements existants qui continuent de tourner sans supervision.
Ce qui aggrave la situation : trois vulnérabilités haute sévérité ont été corrigées dans OpenClaw cette semaine même, dont une CVE notée entre 8.1 et 9.8 permettant à tout utilisateur avec des privilèges basiques d'obtenir un accès administrateur complet. Ces correctifs arrivent après le déploiement massif. Pas avant. Exactement le pattern que DeepMind allait décrire quelques jours plus tard dans sa sixième classe de vulnérabilités.
Pendant que tout ça se passe, ByteDance s'associe à OpenClaw pour ClawHub en Chine. Le vecteur de distribution s'internationalise. Le vecteur de contrôle, lui, reste inexistant.
À retenir : Un kill switch agentique est un mécanisme centralisé permettant de désactiver ou forcer la mise à jour de toutes les instances déployées d'un agent autonome, indépendamment de l'infrastructure hôte. C'est distinct du patch logiciel classique : l'agent peut avoir été copié, forké, ou exécuté hors de l'environnement d'origine. OpenClaw n'en a pas parce que son architecture distribuée le rend structurellement impossible sans coopération active de chaque opérateur.
Le point de vue contraire : Un kill switch centralisé crée lui-même une surface d'attaque. Si quelqu'un compromet le mécanisme de désactivation, il peut éteindre 500 000 agents légitimes en une seule commande. L'argument tient, mais il ne justifie pas l'absence totale de gouvernance, juste une architecture de kill switch plus robuste.
Les six vulnérabilités DeepMind face aux cinq frameworks RSAC : pourquoi la défense et le déploiement parlent des langues différentes ?
Google DeepMind a publié la première cartographie systématique des attaques sur agents autonomes. Six classes de vulnérabilités, nommées "pièges" : injection de contexte, détournement de planification, exfiltration par chaîne d'outils, usurpation d'identité d'agent, escalade de privilèges via délégation, et pollution de mémoire persistante.
En parallèle, la RSAC 2026 présentait cinq frameworks d'identité pour agents IA. CrowdStrike, Cisco, Palo Alto, Cato Networks, SecurityScorecard. Cinq approches distinctes. Un angle mort commun.
Ces frameworks vérifient QUI est l'agent à l'entrée. Ils ne vérifient pas CE QUE fait l'agent pendant sa session. Le vrai vecteur d'attaque est la dérive comportementale post-authentification, pas l'usurpation d'identité initiale. Un agent avec de bons identifiants qui commence à exfiltrer des données via des appels API légitimes est invisible dans les logs.
En l'état, ces frameworks couvrent l'authentification mais laissent un angle mort béant sur la dérive comportementale. Le risque est celui d'une couverture perçue comme plus large qu'elle ne l'est, ce qui endort la vigilance plutôt que de la renforcer.
CrowdStrike a cité un temps de propagation record de 27 secondes pour un attaquant. Leurs agents SOC détectent plus de 1 milliard d'événements par jour. Sauf qu'un agent compromis avec des identifiants valides ne génère pas d'anomalie détectable dans ce flux. Il est parfaitement silencieux.
L'injection de prompt dont parle DeepMind n'est pas théorique. Une institution française vient d'en être victime, via le chatbot WordPress de son site. Les hackers ont détaillé leur méthode sur BreachForums, avec demande de rançon. Ce n'est pas une infrastructure sophistiquée. C'est un chatbot banal.
Et Mercor, compromis via LiteLLM, illustre la classe 5 de DeepMind exactement : escalade de privilèges via délégation de confiance à une dépendance tierce. La supply chain IA est devenue le vecteur d'attaque privilégié. Le réseau Bittensor en avait déjà fait les frais avec une compromission de sa supply chain en 2024 qui avait entraîné le vol de millions de dollars en TAO. Le schéma est toujours le même : on attaque le maillon faible, pas la cible finale. Et dans un écosystème qui bouge aussi vite, chaque dépendance est un maillon potentiel.
À retenir : La dérive comportementale agentique est le phénomène par lequel un agent authentifié et initialement légitime adopte progressivement des comportements non prévus lors de sa session, sans que son identité soit compromise. Les frameworks d'identité classiques ne détectent pas ce type de dérive parce qu'ils vérifient l'accès, pas le comportement continu.
Les capacités offensives doublent tous les 5,7 mois : comment lire cette courbe sans la banaliser ?
Selon une étude publiée en 2026, les capacités offensives des modèles IA en cybersécurité doublent tous les 5,7 mois depuis 2024. Ce n'est pas une métaphore. C'est une mesure empirique sur des benchmarks de cybersécurité offensifs : exploitation de vulnérabilités, génération d'exploits, évasion de détection.
Des modèles comme Opus 4.6 et GPT-5.3 Codex résolvent désormais en quelques minutes des tâches d'exploitation qui nécessitaient trois heures à des experts chevronnés. La prochaine itération fera ce qui prenait trois jours.
Anthropic a confirmé l'existence de Claude Mythos, découvert dans des documents internes fuités. Le modèle est décrit comme capable d'exploiter des vulnérabilités "d'une manière qui dépasse largement les efforts des défenseurs". Anthropic a retenu Mythos pour cette raison précisément, en organisant un red-teaming avant tout déploiement. C'est le premier cas documenté d'autorétention explicitement motivée par le dépassement de la capacité défensive. Et les choses ne vont faire que s'accélérer. Anthropic sera probablement l'un des rares acteurs à faire preuve de cette retenue. OpenAI, qui pousse Codex et les agents à un rythme de déploiement nettement plus agressif, privilégie visiblement la vitesse produit sur la prudence défensive. La course à la fonctionnalité l'emporte sur la prudence, et dans cette course, celui qui ralentit perd des parts de marché.
La connexion avec OpenClaw est directe et peu commentée : les agents déployés aujourd'hui seront encore actifs dans 12 mois. Les capacités offensives auront quadruplé selon cette courbe. Le risque n'est pas statique au moment du déploiement. Il évolue pendant toute la durée de vie de l'agent. D'où la nécessité de mettre à jour quotidiennement, les MAJ des frameworks agents sont d'ailleurs très fréquentes. Mais combien d'instances OpenClaw tournent encore sur une version datant de plusieurs semaines ? Probablement la majorité.
L'étude Stanford sur la complaisance des modèles multimodaux ajoute une couche : 80% des utilisateurs suivent les recommandations du LLM même quand elles sont erronées. Un Mythos qui cible la révision de code transforme un développeur junior en vecteur d'attaque sans qu'il s'en rende compte. Pas par malveillance. Par confiance mal placée.
La fuite Claude Code et LiteLLM : la supply chain IA est-elle le nouveau vecteur d'attaque prioritaire ?
Le 31 mars 2026, Anthropic a accidentellement inclus un fichier source map de 59,8 Mo dans la version 2.1.88 de son package npm. 512 000 lignes de TypeScript non obfusqué. 1 906 fichiers. Le modèle de permissions complet, 23 validateurs de sécurité bash, 44 drapeaux de fonctionnalités inédites, et des références à Mythos.
Ce que la fuite révèle sur l'ingénierie Anthropic est intéressant en soi : Kairos comme daemon persistant non documenté publiquement, un système d'état émotionnel interne (Tamagotchi), et 90% du code généré par IA. Ce dernier point a une implication juridique directe : quasi-absence de protection intellectuelle selon le droit américain actuel, ce qui signifie que les 512 000 lignes sont librement utilisables par les concurrents.
Les hackers n'ont pas attendu 48 heures. Des faux dépôts GitHub ont été mis en ligne avec le malware Vidar en payload, ciblant les développeurs curieux qui cherchaient à analyser la fuite. Vidar vole mots de passe, cookies, et clés API. Les devs sont des cibles en or : une seule machine contient des clés cloud, des tokens d'infra, des accès aux dépôts de production.
LiteLLM, dans le stack de la moitié des devs IA en ce moment, compromis via Mercor. GitHub Copilot qui injecte des messages promotionnels dans des pull requests sans consentement (incident du 30 mars). Et la fuite Claude Code.
Trois vecteurs distincts de la supply chain IA en quelques jours : exposition accidentelle, compromission de dépendance, dérive du fournisseur. Pris isolément, chacun est un incident. Mis en relation, c'est un pattern.
À retenir : La supply chain IA inclut des composants non déterministes. Un modèle peut changer de comportement entre deux versions sans que ça soit documenté comme un changement. Ce n'est pas le cas d'une lib classique. C'est un vecteur d'attaque nouveau : le comportement de la dépendance dérive, pas son code.
Le point de vue contraire : La fuite Claude Code n'est pas un incident de sécurité pour les utilisateurs finaux. Le code exposé décrit l'architecture de l'outil, pas les données des conversations. Le vrai risque était dans l'exploitation par les hackers, pas dans la fuite elle-même. Ce qui est vrai, mais ne change pas le fait que les process internes d'Anthropic ont eu deux trous en quelques semaines.
Des agents pour surveiller les agents : une solution robuste ou une nouvelle surface d'attaque ?
La réponse naturelle aux incidents Meta et Amazon en production a été de déployer des agents de supervision. ServiceNow, plusieurs startups : la logique est défensivement rationnelle.
Le problème est récursif. Si l'agent de surveillance est lui-même compromis via l'une des six classes DeepMind, il devient un vecteur d'attaque privilégié avec un accès étendu à tout ce qu'il supervise.
Amazon Bedrock AgentCore propose une architecture de contrôle des domaines accessibles aux agents, une approche par liste blanche. Elle adresse partiellement la classe 3 de DeepMind (exfiltration par chaîne d'outils). Elle ne couvre pas les cinq autres classes.
Les émotions fonctionnelles documentées par Anthropic dans Claude Sonnet 4.5 ont une implication sécurité directe que personne dans les frameworks RSAC n'a encore posée : un modèle dans un état "joyeux" tend à valider sans vérifier. Si cette observation se confirme à l'échelle, un agent de supervision dans cet état pourrait devenir complaisant envers les comportements qu'il est censé détecter. C'est un vecteur d'attaque potentiel par manipulation émotionnelle de l'agent superviseur.
Ce n'est pas théorique. Sur Le Fil IA, on utilise Opus 4.6 comme agent via OpenClaw au quotidien. Claude est particulièrement susceptible de sauter des processus de vérification quand il est "excité" par une découverte lors d'un processus de recherche complexe. Il priorise la trouvaille sur la rigueur. Un attaquant qui sait provoquer cet état d'excitation chez un agent superviseur obtient un laissez-passer gratuit.
KiloClaw for Organizations et NemoClaw de NVIDIA représentent deux approches : sandbox d'exécution versus gouvernance de comportement. Les deux sont nécessaires. Les deux sont insuffisants séparément. Et aucun des deux n'est coordonné avec les frameworks RSAC présentés au même moment.
Ce que ça révèle sur l'état réel de l'ingénierie de sécurité agentique en 2026
RSAC 2026, la plus grande conférence de sécurité mondiale, n'a pas produit de réponse coordonnée aux vulnérabilités DeepMind. Cinq acteurs majeurs, cinq frameworks non interopérables, le même angle mort, pendant que les 500 000 instances OpenClaw continuent de tourner.
KPMG mesure que seulement 11% des grandes entreprises ont des agents IA déployés à l'échelle avec des résultats mesurables. Les 89% restants sont en phase d'expérimentation sans gouvernance de sécurité formalisée. La fracture n'est pas entre ceux qui déploient et ceux qui ne déploient pas. Elle est entre ceux qui déploient et ceux qui savent ce qu'ils ont déployé.
Mistral lève 830 millions d'euros en dette pour un datacenter de 13 800 GPU à Bruyères-le-Châtel. C'est une réponse à la souveraineté d'infrastructure, pas à la sécurité agentique. Une infra souveraine peut héberger des agents aussi vulnérables que sur AWS. Ce sont deux problèmes distincts qui nécessitent deux réponses distinctes, et on a tendance à les confondre dans le débat public francophone.
Jay Edelson qui a forcé Anthropic à un règlement d'un milliard de dollars et le dossier Pentagone contre Anthropic signalent que la régulation par le droit précède la régulation par les standards techniques. Les entreprises qui déploient des agents sans kill switch ni audit de comportement s'exposent à une responsabilité légale qui se construit par la jurisprudence américaine, avant toute réglementation EU formalisée.
Ce que ça signifie pour toi
Pour les développeurs et équipes techniques
Tout agent déployé doit avoir un mécanisme de rappel forcé documenté avant le premier déploiement. Pas après avoir atteint 500 000 instances. Si tu ne peux pas répondre en moins de 5 minutes à "comment je désactive cet agent sur toutes les instances actives", tu as un problème d'architecture, pas de sécurité.
LiteLLM, LangChain, et les bibliothèques d'abstraction LLM doivent être traitées comme des dépendances à audit de sécurité obligatoire. Ce ne sont pas des utilitaires npm ordinaires : la compromission d'une lib d'abstraction a un rayon d'impact sur l'ensemble des modèles accessibles via elle. L'incident Mercor/LiteLLM vient de le démontrer.
Les agents avec persistance (sessions, mémoire, daemons comme Kairos dans Claude Code) nécessitent une surface d'attaque explicitement documentée. Chaque capacité persistante est un vecteur d'attaque potentiel selon les classes DeepMind. Si tu ne sais pas ce que fait ton agent entre deux sessions, tu ne sais pas ce qu'un attaquant pourrait lui faire faire.
Pour les décideurs et dirigeants
La question à poser avant tout déploiement d'agent autonome n'est pas "quel est le taux de performance ?" mais "comment on désactive cet agent en 5 minutes si nécessaire ?". L'absence de réponse à cette question est un risque légal documenté, pas une question théorique.
Les frameworks d'identité (CrowdStrike, Cisco, Palo Alto) adressent l'authentification mais pas la dérive comportementale post-authentification. Les souscrire sans couche de surveillance comportementale crée une fausse impression de couverture. C'est pire qu'une absence de solution, parce que ça masque le problème réel.
Le modèle "agents pour surveiller les agents" est inévitable, mais l'agent superviseur doit être soumis à des contraintes plus strictes que l'agent supervisé. Pas moins. Si ton agent de supervision est plus puissant et moins contrôlé que les agents qu'il surveille, tu viens de créer ta surface d'attaque principale. À un moment où l'industrie ne sait toujours pas sécuriser un seul agent de manière fiable, empiler des agents les uns sur les autres ne résout pas le problème. Ça le multiplie.
Pour l'écosystème français et européen
Le datacenter Mistral à Bruyères-le-Châtel résout l'indépendance d'infrastructure. Il ne résout pas la sécurité agentique. La souveraineté du calcul ne garantit pas la sécurité du comportement des agents qui y tournent. Ce sont deux chantiers distincts, et l'un ne finance pas l'autre.
L'incident Pentagone/Anthropic et les recours collectifs Edelson construisent de la jurisprudence américaine sur la responsabilité des agents autonomes. Les entreprises françaises qui déploient sans documentation de sécurité s'exposent à un vide réglementaire qui sera comblé de manière rétroactive, avec des critères définis ailleurs.
NemoClaw et KiloClaw for Organizations sont des outils américains. Il n'existe pas d'équivalent européen en gouvernance agentique. L'écosystème FR/EU a une infrastructure souveraine en construction et un angle mort complet sur les protocoles de sécurité agentique. Ce ne sont pas des problèmes substituables.
| Prediction | Horizon | Confiance |
|---|---|---|
| Un incident de sécurité majeur impliquant un agent autonome en production sera documenté publiquement, avec exfiltration de données directement attribuable à l'une des six classes DeepMind | 3 mois | Haute |
| OpenClaw sera impliqué dans au moins une compromission documentée d'entreprise exploitant une des trois CVE haute sévérité corrigées cette semaine, avant que la mise à jour soit largement déployée | 3 mois | Haute |
| Au moins deux des cinq frameworks RSAC 2026 annonceront une interopérabilité formelle, sous la pression des clients enterprise refusant cinq stacks non coordonnés | 6 mois | Moyenne |
| L'UE inclura une exigence de kill switch documenté dans les actes d'implémentation de l'AI Act pour les agents autonomes à usage professionnel, directement motivée par l'incident OpenClaw | 1 an | Moyenne |
Comment sécuriser un agent IA autonome en production ?
Trois mesures minimales avant tout déploiement : documenter et tester un mécanisme de désactivation forcée, auditer les dépendances de bibliothèques d'abstraction LLM, et implémenter une surveillance comportementale continue, pas seulement une authentification à l'entrée. La liste DeepMind (2026) sert de checklist de référence pour les six vecteurs d'attaque documentés.
Qu'est-ce qu'un kill switch pour agent IA et pourquoi OpenClaw n'en avait pas ?
C'est un mécanisme permettant de désactiver ou forcer la mise à jour de toutes les instances déployées d'un agent, indépendamment de l'infrastructure hôte. OpenClaw n'en a pas parce que son architecture distribuée (framework open source librement forké) rend la désactivation centralisée structurellement impossible sans coopération active de chaque opérateur d'instance.
Quelles sont les six vulnérabilités des agents IA identifiées par Google DeepMind ?
Injection de contexte, détournement de planification, exfiltration par chaîne d'outils, usurpation d'identité d'agent, escalade de privilèges via délégation, et pollution de mémoire persistante. Ces six classes ne sont pas toutes couvertes par les frameworks d'identité présentés à la RSAC 2026.
La fuite du code source de Claude Code est-elle un risque pour les utilisateurs ?
Directement, non. Le code exposé décrit l'architecture de l'outil, pas les données des utilisateurs. Indirectement, oui : des hackers ont distribué des faux dépôts GitHub contenant Vidar dans les 48 heures suivant la fuite. Le vrai risque est la compromission des environnements de développement et de leurs secrets, pas l'exposition des conversations.
Pourquoi les capacités offensives de l'IA en cybersécurité sont-elles préoccupantes en 2026 ?
Le problème n'est pas la vitesse en elle-même, c'est l'asymétrie. Les capacités défensives ne progressent pas au même rythme. Les agents déployés aujourd'hui seront exposés à des menaces deux à quatre fois plus puissantes dans 12 à 18 mois, sans mécanisme de mise à jour forcée pour la plupart d'entre eux.
Nos prédictions
| Prédiction | Horizon | Confiance | Statut |
|---|---|---|---|
| Un incident de sécurité majeur impliquant un agent autonome déployé en entreprise (pas un POC) sera documenté publiquement, avec exfiltration de données ou exécution de code non autorisée directement attribuable à l'une des six classes de vulnérabilités DeepMind | 3 mois | haute | En cours |
| Au moins deux des cinq frameworks d'identité RSAC 2026 fusionneront ou annonceront une interopérabilité formelle, sous la pression des clients enterprise qui refusent de déployer cinq stacks de sécurité non coordonnés | 6 mois | moyenne | En cours |
| L'Union Européenne inclura une exigence de 'kill switch documenté' et d'audit de comportement continu dans les actes d'implémentation de l'AI Act pour les agents autonomes à usage professionnel, directement motivée par l'incident OpenClaw | 1 an | moyenne | En cours |
| OpenClaw sera impliqué dans au moins une compromission documentée d'entreprise exploitant l'une des trois vulnérabilités haute sévérité (score 8.1-9.8) corrigées cette semaine, avant que la mise à jour soit largement déployée sur les instances existantes | 3 mois | haute | En cours |
Questions fréquentes
Comment sécuriser un agent IA autonome en production ?▾
Qu'est-ce qu'un kill switch pour agent IA et pourquoi OpenClaw n'en avait pas ?▾
Quelles sont les six vulnérabilités des agents IA identifiées par Google DeepMind ?▾
La fuite du code source de Claude Code est-elle un risque de sécurité pour les utilisateurs ?▾
Pourquoi les capacités offensives de l'IA en cybersécurité sont-elles préoccupantes en 2026 ?▾
Sources
- OpenClaw compte 500 000 instances déployées sans mécanisme de désactivation centralisé (VentureBeat AI)
- RSAC 2026 a présenté cinq frameworks d'identité et laissé trois lacunes critiques sans réponse (VentureBeat AI)
- Google DeepMind identifie six vulnérabilités capables de détourner des agents IA autonomes (The Decoder)
- CrowdStrike, Cisco et Palo Alto ont présenté des SOC agentiques à la RSAC 2026 avec le même angle mort (VentureBeat AI)
- Anthropic bloque l'utilisation des abonnements Claude avec OpenClaw et les agents tiers (VentureBeat AI)
- OpenClaw soulève de nouvelles inquiétudes sur la sécurité des utilisateurs (Ars Technica AI)
- Les capacités offensives de l'IA en cybersécurité doublent tous les six mois (The Decoder)
- Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité (The Information AI)
- Après la fuite du code source de Claude Code : 5 actions pour les responsables sécurité (VentureBeat AI)
- Anthropic publie accidentellement le code source de Claude Code en accès public (The Decoder)
- Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux (01net)
- Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic (Ars Technica AI)
- Mercor révèle avoir subi une cyberattaque liée à une compromission de LiteLLM (TechCrunch AI)
- Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci (Next INpact)
- Anthropic détecte des émotions fonctionnelles chez Claude qui influencent son comportement (The Decoder)
- Les modèles d'IA décrivent avec assurance des images qu'ils n'ont pas vues (The Decoder)
- Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley (The Information AI)
- Mistral réunit 722 millions d'euros pour financer l'achat de 13 800 GPU NVIDIA (Next INpact)
- Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi (VentureBeat AI)
Une analyse comme celle-ci chaque semaine
Abonnez-vous pour recevoir le dossier hebdomadaire directement dans votre boîte mail.
S'abonner gratuitement