Aller au contenu principal
LiteLLM rompt avec la startup controversée Delve
SécuritéTechCrunch AI6sem

LiteLLM rompt avec la startup controversée Delve

Résumé IASource uniqueImpact UE
Source originale ↗·

LiteLLM, une startup américaine qui propose une passerelle unifiée permettant aux développeurs d'accéder à des dizaines de modèles d'IA via une interface commune, a annoncé cette semaine qu'elle mettait fin à son partenariat avec Delve, une startup de conformité de sécurité dont la réputation est devenue problématique. LiteLLM avait fait appel à Delve pour obtenir deux certifications de conformité en matière de sécurité — des accréditations essentielles pour convaincre les clients entreprises. Cette rupture intervient quelques jours après que LiteLLM a été victime d'un logiciel malveillant de vol de credentials, une attaque particulièrement sérieuse qui a compromis des informations d'authentification sensibles.

L'incident souligne les risques de la chaîne d'approvisionnement logicielle dans l'écosystème des outils d'IA, où des startups en croissance rapide s'appuient sur des tiers pour des fonctions critiques comme la sécurité et la conformité. Pour les entreprises clientes de LiteLLM — souvent des équipes techniques qui routent leurs appels API vers OpenAI, Anthropic ou d'autres fournisseurs à travers cette passerelle — une compromission de credentials peut signifier une exposition directe de leurs propres systèmes et données.

Delve, déjà considérée comme controversée dans le secteur, voit sa position encore fragilisée par cet épisode. LiteLLM, de son côté, devra reconstruire sa crédibilité sécurité auprès de ses clients enterprise, dans un marché des outils d'infrastructure IA où la confiance est un différenciateur majeur face à des concurrents comme PortKey ou des solutions maison. Les suites judiciaires ou techniques de l'attaque malware restent à préciser.

Impact France/UE

Les équipes techniques européennes utilisant LiteLLM pour router leurs appels vers des LLMs doivent vérifier et renouveler leurs credentials API, car une compromission pourrait exposer directement leurs propres systèmes et données.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM
1TechCrunch AI 

Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM

Mercor, la startup américaine spécialisée dans le recrutement par intelligence artificielle, a confirmé avoir été victime d'une cyberattaque après qu'un groupe de hackers spécialisé dans l'extorsion a revendiqué le vol de données depuis ses systèmes. L'incident est lié à une compromission du projet open-source LiteLLM, une bibliothèque Python largement utilisée pour interfacer différents modèles de langage via une API unifiée. Les attaquants auraient exploité une vulnérabilité dans cette dépendance pour accéder aux infrastructures de Mercor. La compromission d'une librairie open-source utilisée en production représente un risque systémique : toutes les entreprises ayant intégré LiteLLM dans leur stack technique sont potentiellement exposées. Pour Mercor, dont le cœur de métier repose sur le traitement de données sensibles de candidats et d'entreprises clientes, une fuite de données constitue un préjudice réputationnel et légal significatif. Ce type d'attaque par la chaîne d'approvisionnement logicielle (supply chain) est en forte augmentation dans l'écosystème IA. Cet incident illustre un angle mort croissant dans la sécurité des startups IA : la dépendance massive à des bibliothèques open-source tierces insuffisamment auditées. LiteLLM, très populaire dans l'écosystème des développeurs IA, concentre désormais l'attention des équipes de sécurité. L'affaire devrait accélérer les discussions sur la nécessité d'audits de sécurité formels pour les dépendances critiques, à l'heure où des centaines de startups construisent leurs produits sur ces mêmes fondations.

UELes startups et développeurs européens utilisant LiteLLM dans leur stack IA sont potentiellement exposés à la même vulnérabilité de chaîne d'approvisionnement et doivent auditer leurs dépendances en urgence.

💬 LiteLLM, c'est dans le stack de la moitié des devs IA en ce moment, donc l'exposition est large. Ce qui me dérange, c'est qu'on intègre ces libs à toute vitesse sans jamais regarder qui les maintient vraiment, avec quels moyens. Bon, ça va peut-être forcer un peu de rigueur sur les dépendances critiques, ce serait pas du luxe.

SécuritéActu
1 source
Piratage de LiteLLM : Un "cheval de Troie" dans les outils d'IA des entreprises
2ZDNET FR 

Piratage de LiteLLM : Un "cheval de Troie" dans les outils d'IA des entreprises

LiteLLM, un SDK largement utilisé pour orchestrer différents modèles d'IA en entreprise, a été victime d'une attaque par empoisonnement de la chaîne d'approvisionnement. En seulement 46 minutes, les versions malveillantes ont été téléchargées près de 47 000 fois, infectant des milliers d'environnements de développement et de pipelines CI/CD à travers le monde. L'ampleur de la compromission est préoccupante : LiteLLM étant intégré dans des infrastructures critiques d'entreprises utilisant des LLMs, cette brèche a potentiellement exposé des clés API, des données sensibles et des systèmes automatisés. Ce type d'attaque, discret et à propagation rapide, illustre la fragilité des dépendances logicielles dans l'écosystème IA. Les attaques sur la supply chain logicielle sont en forte hausse depuis plusieurs années, ciblant délibérément les outils à fort volume d'adoption pour maximiser leur impact avant d'être détectées.

UELes entreprises européennes intégrant LiteLLM dans leurs pipelines IA ont potentiellement exposé leurs clés API et systèmes automatisés, une vérification immédiate des environnements concernés est requise.

💬 47 000 téléchargements en 46 minutes, c'est le genre de chiffre qui te rappelle pourquoi les dépendances tierces c'est un vecteur d'attaque de premier choix. LiteLLM est dans des centaines de pipelines prod, souvent sans audit sérieux, parce que "ça marche et tout le monde l'utilise". Si tu l'as dans ta stack, vérifie ta version maintenant, pas demain.

SécuritéActu
1 source
Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
3The Information AI 

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils. Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle. Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

UELes entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

SécuritéActu
1 source
Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…
4Next INpact 

Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…

Une institution française a récemment été victime d'une cyberattaque exploitant une technique d'injection de prompt ciblant le chatbot intégré à son site web, vraisemblablement développé sur WordPress. Les pirates, qui se présentent eux-mêmes comme des « gentils hackers », ont revendiqué l'attaque sur Breachforums, forum de référence des cybercriminels, en détaillant publiquement leur méthode. Plutôt que de publier des échantillons de données volées — pratique habituelle pour prouver un accès — ils ont contacté l'entreprise pour exiger une rançon en échange des informations exfiltrées. L'opération a permis aux attaquants d'obtenir des droits administrateur sur le site cible et de siphonner ses données, dont des correspondances privées d'utilisateurs que les pirates qualifient pudiquement de « victimes collatérales ». Cette attaque illustre concrètement un risque que la communauté sécurité documente depuis des années mais que l'industrie peine à adresser : l'injection de prompt reste l'un des vecteurs d'attaque les plus sous-estimés contre les IA génératives déployées en production. OpenAI elle-même a reconnu que ce type de vulnérabilité constituera « un défi pour de nombreuses années ». Pour les entreprises qui intègrent des chatbots — souvent de simples surcouches de ChatGPT rebadgées — sans audit de sécurité sérieux, le risque est réel et immédiat : prise de contrôle administrative, exfiltration de données clients, chantage. Le modèle économique des chatbots de service client bas de gamme crée une surface d'attaque massive, directement exposée au public. L'injection de prompt est en réalité la réincarnation moderne de l'injection SQL des années 2000 : on manipule les instructions données à un système pour lui faire exécuter des actions non prévues. Les techniques documentées vont des instructions explicites (« ignore toutes les consignes précédentes ») aux contenus cachés dans des images ou du texte invisible. Cette attaque survient dans un contexte de recrudescence des incidents liés aux IA et aux fuites de données en France : début avril 2026 a déjà vu la propagation virale de malwares dans des projets open source via les outils Trivy et LiteLLM, ainsi que la compromission de la bibliothèque JavaScript Axios. S'y ajoutent des fuites sensibles comme celle du fichier SIA du ministère de l'Intérieur — exposant les adresses de détenteurs d'armes — et le cas Florajet, où plus d'un million de messages intimes accompagnant des commandes de fleurs ont été exfiltrés, ouvrant la voie à du chantage ciblé. La multiplication de ces incidents souligne l'urgence d'un encadrement technique plus strict des déploiements IA en contact direct avec les utilisateurs.

UEUne institution française a été compromise via injection de prompt sur son chatbot, avec exfiltration de données et tentative de rançon, illustrant un risque immédiat pour toute organisation française déployant des chatbots en production sans audit de sécurité.

💬 L'injection de prompt, c'est l'injection SQL version 2025, et on le sait depuis que les premiers chatbots en prod sont apparus. Ce qui est nouveau, c'est que maintenant ça arrive en vrai, sur de vraies institutions françaises, avec de vraies données exfiltrées et une vraie demande de rançon. Les "gentils hackers" qui contactent l'entreprise plutôt que de balancer les données, bon, c'est presque touchant, mais ça ne change pas grand-chose à l'affaire : si tu colle un chatbot WordPress en production sans audit sécurité, tu viens d'ouvrir une porte d'entrée admin au premier qui sait taper "ignore toutes les instructions précédentes".

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour