Aller au contenu principal
Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM
SécuritéTechCrunch AI6sem

Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Mercor, la startup américaine spécialisée dans le recrutement par intelligence artificielle, a confirmé avoir été victime d'une cyberattaque après qu'un groupe de hackers spécialisé dans l'extorsion a revendiqué le vol de données depuis ses systèmes. L'incident est lié à une compromission du projet open-source LiteLLM, une bibliothèque Python largement utilisée pour interfacer différents modèles de langage via une API unifiée. Les attaquants auraient exploité une vulnérabilité dans cette dépendance pour accéder aux infrastructures de Mercor.

La compromission d'une librairie open-source utilisée en production représente un risque systémique : toutes les entreprises ayant intégré LiteLLM dans leur stack technique sont potentiellement exposées. Pour Mercor, dont le cœur de métier repose sur le traitement de données sensibles de candidats et d'entreprises clientes, une fuite de données constitue un préjudice réputationnel et légal significatif. Ce type d'attaque par la chaîne d'approvisionnement logicielle (supply chain) est en forte augmentation dans l'écosystème IA.

Cet incident illustre un angle mort croissant dans la sécurité des startups IA : la dépendance massive à des bibliothèques open-source tierces insuffisamment auditées. LiteLLM, très populaire dans l'écosystème des développeurs IA, concentre désormais l'attention des équipes de sécurité. L'affaire devrait accélérer les discussions sur la nécessité d'audits de sécurité formels pour les dépendances critiques, à l'heure où des centaines de startups construisent leurs produits sur ces mêmes fondations.

Impact France/UE

Les startups et développeurs européens utilisant LiteLLM dans leur stack IA sont potentiellement exposés à la même vulnérabilité de chaîne d'approvisionnement et doivent auditer leurs dépendances en urgence.

💬 Le point de vue du dev

LiteLLM, c'est dans le stack de la moitié des devs IA en ce moment, donc l'exposition est large. Ce qui me dérange, c'est qu'on intègre ces libs à toute vitesse sans jamais regarder qui les maintient vraiment, avec quels moyens. Bon, ça va peut-être forcer un peu de rigueur sur les dépendances critiques, ce serait pas du luxe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Une cyberattaque en chaîne au coeur de l’IA sème la panique
101net 

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

SécuritéOpinion
1 source
LiteLLM rompt avec la startup controversée Delve
2TechCrunch AI 

LiteLLM rompt avec la startup controversée Delve

LiteLLM, une startup américaine qui propose une passerelle unifiée permettant aux développeurs d'accéder à des dizaines de modèles d'IA via une interface commune, a annoncé cette semaine qu'elle mettait fin à son partenariat avec Delve, une startup de conformité de sécurité dont la réputation est devenue problématique. LiteLLM avait fait appel à Delve pour obtenir deux certifications de conformité en matière de sécurité — des accréditations essentielles pour convaincre les clients entreprises. Cette rupture intervient quelques jours après que LiteLLM a été victime d'un logiciel malveillant de vol de credentials, une attaque particulièrement sérieuse qui a compromis des informations d'authentification sensibles. L'incident souligne les risques de la chaîne d'approvisionnement logicielle dans l'écosystème des outils d'IA, où des startups en croissance rapide s'appuient sur des tiers pour des fonctions critiques comme la sécurité et la conformité. Pour les entreprises clientes de LiteLLM — souvent des équipes techniques qui routent leurs appels API vers OpenAI, Anthropic ou d'autres fournisseurs à travers cette passerelle — une compromission de credentials peut signifier une exposition directe de leurs propres systèmes et données. Delve, déjà considérée comme controversée dans le secteur, voit sa position encore fragilisée par cet épisode. LiteLLM, de son côté, devra reconstruire sa crédibilité sécurité auprès de ses clients enterprise, dans un marché des outils d'infrastructure IA où la confiance est un différenciateur majeur face à des concurrents comme PortKey ou des solutions maison. Les suites judiciaires ou techniques de l'attaque malware restent à préciser.

UELes équipes techniques européennes utilisant LiteLLM pour router leurs appels vers des LLMs doivent vérifier et renouveler leurs credentials API, car une compromission pourrait exposer directement leurs propres systèmes et données.

SécuritéOpinion
1 source
Google affirme avoir stoppé une cyberattaque de grande ampleur après qu'une IA a détecté une faille zero-day
3The Decoder 

Google affirme avoir stoppé une cyberattaque de grande ampleur après qu'une IA a détecté une faille zero-day

Le Threat Intelligence Group de Google a identifié le premier cas documenté d'un attaquant ayant utilisé l'intelligence artificielle pour découvrir et exploiter une vulnérabilité zero-day. Selon Google, le groupe a réussi à détecter et neutraliser cette attaque avant qu'elle ne se propage à grande échelle. C'est une première mondiale : jusqu'ici, l'IA était soupçonnée de pouvoir accélérer la découverte de failles, mais aucun cas concret d'exploitation malveillante n'avait été formellement documenté. L'enjeu est considérable. Une vulnérabilité zero-day est une faille inconnue du fabricant, donc sans correctif disponible au moment de l'attaque. Lorsqu'elle est couplée à la puissance de l'IA pour automatiser sa découverte et son armement, la menace change de nature : ce qui prenait auparavant des semaines de travail à des équipes spécialisées peut désormais être accompli beaucoup plus rapidement et à moindre coût. Les entreprises, infrastructures critiques et gouvernements du monde entier sont potentiellement exposés à une nouvelle génération d'attaques plus rapides et plus difficiles à anticiper. Google signale par ailleurs que des groupes étatiques liés à la Chine, la Corée du Nord et la Russie utilisent déjà activement l'IA pour identifier des failles de sécurité et dissimuler du code malveillant dans leurs opérations d'espionnage ou de sabotage. Cette révélation illustre une course aux armements numériques où l'IA devient un outil central, aussi bien pour les attaquants que pour les défenseurs. Google, Microsoft et d'autres géants de la cybersécurité investissent massivement pour que leurs propres systèmes de détection restent en avance sur ces nouvelles capacités offensives.

UELes infrastructures critiques et gouvernements européens sont directement exposés à cette nouvelle génération d'attaques IA-assistées orchestrées par des groupes étatiques liés à la Russie, la Chine et la Corée du Nord.

💬 C'est documenté pour la première fois, et ça change tout. Des semaines de travail pour trouver une zero-day deviennent quelques heures avec les bons modèles, et des groupes liés à la Russie ou à la Corée du Nord ne vont pas s'en priver longtemps. Google a neutralisé celui-là, reste à voir combien passent sous le radar.

SécuritéOpinion
1 source
OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité
4MarkTechPost 

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité

OpenAI a annoncé l'extension de son programme Trusted Access for Cyber (TAC) à des milliers de professionnels de la sécurité vérifiés individuellement, ainsi qu'à des centaines d'équipes chargées de défendre des infrastructures logicielles critiques. Au cœur de cette expansion figure GPT-5.4-Cyber, un modèle dérivé de GPT-5.4 spécifiquement ajusté pour les usages défensifs en cybersécurité. Contrairement au modèle standard, GPT-5.4-Cyber adopte ce qu'OpenAI qualifie d'approche "cyber-permissive" : son seuil de refus est délibérément abaissé pour les requêtes à vocation défensive légitime. Parmi les capacités débloquées figure notamment l'ingénierie inverse de binaires sans accès au code source, une fonctionnalité majeure pour analyser des firmwares, des bibliothèques tierces ou des échantillons de malwares compilés. Les utilisateurs accèdent au programme via chatgpt.com/cyber pour une vérification individuelle, ou par l'intermédiaire d'un représentant OpenAI pour les équipes entreprise. Ce changement s'attaque à un problème concret que connaissent bien les chercheurs et ingénieurs en sécurité : les modèles généralistes refusent fréquemment d'analyser du code malveillant ou d'expliquer des techniques d'exploitation, même dans un cadre manifestement défensif. Cette friction ralentit le travail des équipes de sécurité offensives et défensives légitimes, au profit, indirectement, des attaquants qui eux n'attendent pas de validation. En réduisant ces blocages pour des utilisateurs vérifiés, OpenAI cherche à rééquilibrer l'avantage technologique en faveur des défenseurs. Le modèle conserve toutefois des garde-fous stricts : l'exfiltration de données, la création ou le déploiement de malwares, et les tests non autorisés restent explicitement interdits. L'accès en mode zéro-rétention de données est également limité, OpenAI arguant d'une visibilité réduite sur l'environnement et les intentions de l'utilisateur dans cette configuration. La cybersécurité a toujours souffert de ce qu'on appelle le problème du double usage : les mêmes connaissances techniques servent aussi bien à défendre des systèmes qu'à les attaquer. Pour les systèmes d'IA, cette tension est particulièrement aiguë, car il est difficile de distinguer automatiquement une intention défensive d'une intention malveillante. OpenAI propose ici une réponse structurelle inédite : un cadre d'accès à plusieurs niveaux fondé sur la vérification d'identité, plutôt que des restrictions uniformes appliquées à tous. Cette approche s'inscrit dans une tendance plus large du secteur à différencier les accès selon le profil et les intentions déclarés de l'utilisateur. Si le modèle se généralise, d'autres fournisseurs de modèles comme Anthropic ou Google DeepMind pourraient être amenés à développer des dispositifs similaires pour ne pas laisser OpenAI s'imposer comme la référence des outils d'IA pour la sécurité professionnelle.

UELes professionnels de la cybersécurité européens peuvent candidater au programme TAC d'OpenAI pour accéder à des capacités d'analyse défensive avancées, notamment l'ingénierie inverse de binaires et l'analyse de malwares compilés.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour