
Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA
La bibliothèque Python LiteLLM, utilisée par des millions de développeurs travaillant sur des applications d'intelligence artificielle, a été compromise lors d'une attaque ciblée révélée le 24 mars 2026 par les chercheurs de la société de cybersécurité Snyk. En seulement trois heures, des acteurs malveillants ont réussi à infiltrer un projet critique de l'écosystème IA open source, exposant potentiellement un nombre considérable de chaînes de déploiement logiciel.
LiteLLM est un outil de référence dans l'univers du développement IA : il permet d'interagir de façon unifiée avec des dizaines de modèles de langage (OpenAI, Anthropic, Mistral, etc.), ce qui en fait un maillon central de nombreuses architectures applicatives. Sa compromission ne représente pas une menace isolée — elle touche directement toute la chaîne d'approvisionnement logicielle des développeurs qui l'intègrent dans leurs pipelines de production.
Derrière l'attaque, le groupe TeamPCP, dont la préparation s'est étalée sur cinq jours avant l'exécution. Selon l'analyse de Snyk, les attaquants ont procédé méthodiquement avant de passer à l'action, une méthodologie caractéristique des attaques dites de supply chain visant les dépendances open source. La fenêtre d'exposition de trois heures a suffi pour que du code malveillant soit potentiellement distribué à travers le gestionnaire de paquets pip.
Cette attaque s'inscrit dans une tendance préoccupante : l'écosystème des outils IA, en croissance explosive, devient une cible de choix pour les groupes malveillants. Les bibliothèques très utilisées comme LiteLLM représentent un point d'entrée particulièrement efficace — compromettre un seul projet peut affecter des milliers d'applications en aval simultanément. L'incident renforce les appels des experts à renforcer la sécurité des chaînes de dépendances open source dans les projets d'IA.
Les développeurs européens utilisant LiteLLM dans leurs pipelines IA doivent auditer leurs dépendances et mettre à jour vers une version saine de la bibliothèque.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


