
Le chaînon manquant entre la hype et la rentabilité
En février dernier, des manifestants anti-IA défilaient dans les rues de Londres avec un tract signé Pause AI qui résumait involontairement l'état du secteur : "Étape 1 : Créer un super cerveau numérique. Étape 2 : ? Étape 3 : ?" Le clin d'oeil aux "gnomes voleurs de sous-vêtements" de South Park, devenus un mème culte pour moquer les plans d'affaires sans logique, n'était peut-être pas intentionnel, mais il frappait juste. Les entreprises d'IA ont construit la technologie (étape 1) et promis la transformation économique (étape 3). L'étape 2, celle qui explique comment on passe de l'un à l'autre, reste un point d'interrogation. Jakub Pachocki, directeur scientifique d'OpenAI, qualifie l'IA de "technologie économiquement transformatrice", mais la trajectoire concrète reste floue.
Deux études récentes illustrent à quel point cet écart entre promesse et réalité est profond. Une recherche d'Anthropic a tenté de cartographier les métiers les plus exposés aux grands modèles de langage, concluant que managers, architectes et journalistes devraient se préparer à des bouleversements, contrairement aux jardiniers ou aux ouvriers du bâtiment. Mais ces prédictions reposent sur ce que les LLM semblent capables de faire en théorie, non sur leurs performances réelles au bureau. Plus révélatrice encore, une étude publiée en février par Mercor, une startup spécialisée dans le recrutement assisté par IA, a soumis plusieurs agents IA alimentés par les meilleurs modèles d'OpenAI, d'Anthropic et de Google DeepMind à 480 tâches professionnelles typiques de banquiers, consultants et juristes. Résultat : chaque agent échoué à accomplir la majorité des tâches qui lui étaient assignées.
Ce fossé entre le discours et les faits s'explique par plusieurs facteurs structurels. D'abord, les acteurs qui font les prédictions les plus enthousiastes ont un intérêt financier direct dans leur réalisation. Ensuite, une grande partie des optimistes fondent leurs conclusions sur la progression rapide des outils de codage, qui ne représentent qu'une fraction des usages professionnels réels. Les LLM se révèlent notamment peu fiables pour les décisions stratégiques, qui nécessitent jugement et contextualisation. Et même lorsqu'ils fonctionnent bien en laboratoire, ces outils doivent s'intégrer dans des environnements humains existants, avec leurs habitudes, leurs résistances et leurs workflows hérités. Refondre ces processus autour de l'IA pour en tirer une valeur transformatrice prendra du temps et impliquera des risques. C'est précisément dans ce vide d'information que prospèrent les annonces fracassantes et les prophéties sans preuves. Le problème n'est pas que personne ne sait où l'IA va mener, c'est que tout le monde fait semblant de le savoir.
Le fossé entre les promesses économiques de l'IA et ses performances réelles en contexte professionnel concerne directement les décideurs et entreprises européens qui investissent massivement dans ces technologies sans visibilité sur le retour attendu.




