Aller au contenu principal
Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail
AutreLe Monde Pixels3h

Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail

1 source couvre ce sujet·Source originale ↗·

Dans la plupart des grandes entreprises, l'intelligence artificielle s'est d'abord installée par la petite porte : des salariés ont adopté en catimini des outils comme ChatGPT ou Copilot, souvent sans autorisation de leur hiérarchie. Ce phénomène, baptisé « shadow AI », s'est généralisé au point que certaines études estiment que plus de la moitié des employés utilisent des outils d'IA non approuvés dans leur travail quotidien, à l'insu de leur employeur.

Plutôt que de sanctionner ces pratiques, un nombre croissant de directions choisissent désormais de les récupérer à leur avantage. En observant quels outils s'imposent spontanément, les entreprises identifient les cas d'usage les plus pertinents et les salariés les plus avancés — des données précieuses pour piloter leur propre stratégie d'adoption de l'IA. Ce retournement transforme une zone de risque (fuite de données, violation de licences) en un laboratoire d'innovation involontaire.

Ce basculement révèle une tension structurelle dans la transformation numérique des organisations : les politiques officielles peinent à suivre le rythme d'adoption réel des technologies. Après des années de gouvernance restrictive sur le BYOD et les outils cloud non validés, les entreprises semblent tirer les leçons du passé en optant pour une intégration encadrée plutôt qu'une interdiction inapplicable. La question des données sensibles transmises à des modèles externes reste néanmoins un angle mort majeur.

Impact France/UE

Les entreprises européennes confrontées au shadow AI doivent adapter leur gouvernance IA en tenant compte des obligations RGPD sur la transmission de données sensibles à des modèles externes.

À lire aussi

1ZDNET FR 

Apple veut transformer Siri en assistant multitâche, plus rapide et plus complet

Autre
1 source
2Maddyness 

Défense : le Royaume-Uni place l’IA au cœur de sa stratégie d’innovation

Autre
1 source
Anthropic passe aux aveux : « Claude est en réalité une vraie personne »
3Blog du Modérateur 

Anthropic passe aux aveux : « Claude est en réalité une vraie personne »

Le contenu de l'article fourni se limite à une phrase d'accroche — impossible d'écrire un résumé de 150-200 mots sans matière. Cela dit, vu la date du jour (1er avril 2026), je soupçonne fortement qu'il s'agit d'un poisson d'avril. Tu veux que je : 1. Rédige un article fictif humoristique dans le style demandé, en jouant le jeu du canular 2. Attende que tu colles le vrai contenu de l'article si tu as accès au texte complet

AutreOpinion
1 source
Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM
4TechCrunch AI 

Mercor révèle avoir subi une cyberattaque liée à une compromission du projet open source LiteLLM

Mercor, la startup américaine spécialisée dans le recrutement par intelligence artificielle, a confirmé avoir été victime d'une cyberattaque après qu'un groupe de hackers spécialisé dans l'extorsion a revendiqué le vol de données depuis ses systèmes. L'incident est lié à une compromission du projet open-source LiteLLM, une bibliothèque Python largement utilisée pour interfacer différents modèles de langage via une API unifiée. Les attaquants auraient exploité une vulnérabilité dans cette dépendance pour accéder aux infrastructures de Mercor. La compromission d'une librairie open-source utilisée en production représente un risque systémique : toutes les entreprises ayant intégré LiteLLM dans leur stack technique sont potentiellement exposées. Pour Mercor, dont le cœur de métier repose sur le traitement de données sensibles de candidats et d'entreprises clientes, une fuite de données constitue un préjudice réputationnel et légal significatif. Ce type d'attaque par la chaîne d'approvisionnement logicielle (supply chain) est en forte augmentation dans l'écosystème IA. Cet incident illustre un angle mort croissant dans la sécurité des startups IA : la dépendance massive à des bibliothèques open-source tierces insuffisamment auditées. LiteLLM, très populaire dans l'écosystème des développeurs IA, concentre désormais l'attention des équipes de sécurité. L'affaire devrait accélérer les discussions sur la nécessité d'audits de sécurité formels pour les dépendances critiques, à l'heure où des centaines de startups construisent leurs produits sur ces mêmes fondations.

UELes startups et développeurs européens utilisant LiteLLM dans leur stack IA sont potentiellement exposés à la même vulnérabilité de chaîne d'approvisionnement et doivent auditer leurs dépendances en urgence.

💬 LiteLLM, c'est dans le stack de la moitié des devs IA en ce moment, donc l'exposition est large. Ce qui me dérange, c'est qu'on intègre ces libs à toute vitesse sans jamais regarder qui les maintient vraiment, avec quels moyens. Bon, ça va peut-être forcer un peu de rigueur sur les dépendances critiques, ce serait pas du luxe.

AutreActu
1 source