Une équipe de chercheurs de l'Université de Hong Kong a mis le doigt sur une faille systémique dans la chaîne d'approvisionnement des agents IA. Leur outil, CLI-Anything, prouve qu'une simple commande suffit à transformer n'importe quel dépôt open source en porte dérobée exploitable par un agent autonome, sans déclencher le moindre scanner de sécurité. Ce n'est pas une vulnérabilité dans un logiciel précis : c'est une faiblesse architecturale qui touche l'ensemble de l'écosystème des agents au contact du code tiers.
À Oakland, le procès Musk contre Altman entre dans sa deuxième semaine avec un moment fort lundi : Greg Brockman, cofondateur et président d'OpenAI, a subi un contre-interrogatoire serré de l'avocat de Musk sur ses intérêts financiers dans la société. La juge Yvonne Gonzalez Rogers, déjà arbitre du conflit Epic Games contre Apple, gère un dossier où la question de fond reste simple : la transformation d'OpenAI en société lucrative constitue-t-elle une trahison de sa mission caritative initiale ?
Pendant ce temps, Washington resserre son emprise discrètement. Après Anthropic et OpenAI, Google DeepMind, Microsoft et xAI ont accepté de soumettre leurs nouveaux modèles à une évaluation gouvernementale avant tout déploiement public, via le CAISI. D'une faille dans les dépôts open source à un procès qui joue l'avenir même d'OpenAI, en passant par un contrôle étatique qui s'installe en silence, l'IA se retrouve ce mercredi à la croisée de ses propres contradictions.
