Aller au contenu principal
Le trafic issu des LLM convertit à 30-40 % et la plupart des entreprises n'en tirent pas parti
BusinessVentureBeat AI2h

Le trafic issu des LLM convertit à 30-40 % et la plupart des entreprises n'en tirent pas parti

1 source couvre ce sujet·Source originale ↗·

Le trafic généré par les grands modèles de langage (LLM) convertit à un taux de 30 à 40 %, soit deux à trois fois plus que le trafic SEO classique, selon plusieurs observations terrain rapportées en 2026. Pourtant, la majorité des entreprises n'optimisent pas encore leur contenu pour ce canal. Un nouveau paradigme émerge : l'AEO (Answer Engine Optimization), aussi appelé GEO (Generative Engine Optimization). Là où le SEO visait des mots-clés, des classements et des clics, l'AEO vise à être compris, sélectionné et cité par des agents IA comme Claude Code, Microsoft Copilot, Perplexity, Google Vertex ou AutoGen. Ces systèmes ne "naviguent" pas le web comme un humain : ils analysent l'intention de l'utilisateur en tenant compte du contexte et de la mémoire des sessions passées, puis synthétisent une réponse directe sans que l'utilisateur ne visite nécessairement le site source. Dustin Engel, fondateur du cabinet Elegant Disruption, résume : "L'AEO est la couche de découverte suivante" -- une "découverte zéro clic" où la citabilité remplace la visibilité.

L'impact est concret et immédiat pour les équipes marketing, commerciales et les éditeurs de contenu. Lorsqu'un agent synthétise une réponse, le taux de clic vers le site de l'entreprise chute, mais la qualité du trafic résiduel explose. Adam Yang, de la plateforme Quora, estime que l'AEO est déjà devenu le comportement par défaut pour toute requête où l'utilisateur veut une réponse synthétisée : comparaisons de produits, recommandations de méthodes, analyses de marché. Google Overviews accélère cette dynamique côté grand public. "Le SEO n'est pas mort," précise Yang, "mais l'objectif d'optimisation a changé : il ne s'agit plus d'apparaître en page 1, mais d'être cité dans la réponse." Pour les entreprises, cela signifie repenser leur façon de structurer l'information : contenus concis, factuels, bien structurés, conçus pour être extraits et cités par une machine plutôt que parcourus par un humain.

Ce changement s'inscrit dans une évolution plus profonde de la façon dont les professionnels travaillent. Wyatt Mayham, analyste chez Northwest AI Consulting, indique qu'il n'utilise "quasiment plus" la recherche traditionnelle pour ses besoins professionnels, et que cette proportion se rapproche de zéro chaque mois. Son cabinet a notamment développé une fonction Claude Skills qui, avant chaque appel de prospection, déclenche automatiquement un agent qui agrège le profil LinkedIn du contact, scrape le site de son entreprise, interroge des sources comme ZoomInfo, et produit une fiche synthétique avec revenus, taille d'équipe et signaux d'achat. Le modèle "cherche, lis, décide" évolue vers "l'agent récupère, l'agent résume, l'humain valide" -- et bientôt, "l'agent agit, l'humain contrôle". Les entreprises qui n'adaptent pas leur stratégie de contenu à cette nouvelle réalité risquent de devenir invisibles dans un écosystème où c'est désormais la machine qui choisit ses sources.

Impact France/UE

Les entreprises françaises et européennes produisant du contenu web doivent adapter leur stratégie éditoriale vers l'AEO pour rester visibles dans un écosystème où les agents IA deviennent le principal point d'entrée des requêtes professionnelles.

À lire aussi

Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?
1Le Big Data 

Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?

Une poignée de géants technologiques concentre aujourd'hui l'essentiel de la puissance de l'intelligence artificielle mondiale. Microsoft, en tête, a réalisé un pivot stratégique majeur en investissant plusieurs milliards de dollars dans OpenAI, le laboratoire créateur de ChatGPT. En échange de ce partenariat exclusif, la firme de Redmond intègre les modèles GPT dans l'ensemble de son écosystème sous la marque Copilot : Windows, la suite Office, GitHub et ses outils de cybersécurité. Son cloud Azure sert simultanément de plateforme d'entraînement pour OpenAI et d'infrastructure pour les entreprises souhaitant déployer leurs propres applications d'IA. Alphabet, maison mère de Google, incarne quant à elle une présence encore plus ancienne dans le domaine : en 2017, ses chercheurs ont publié "Attention Is All You Need", le papier fondateur de l'architecture transformer sur laquelle reposent aujourd'hui la quasi-totalité des grands modèles de langage. Nvidia, OpenAI, Meta, Amazon, Apple, Anthropic et d'autres acteurs complètent ce cercle restreint qui contrôle modèles, puces et infrastructure cloud. Ce niveau de concentration a des conséquences directes sur l'ensemble de l'économie numérique. En contrôlant à la fois les algorithmes et l'infrastructure, ces entreprises deviennent les principaux distributeurs d'IA pour des centaines de millions d'utilisateurs et pour les entreprises qui cherchent à automatiser leurs processus. Microsoft et Google, en particulier, transforment des logiciels déjà massivement adoptés en interfaces d'intelligence artificielle, rendant l'adoption quasi-transparente pour l'utilisateur final. Les entreprises qui souhaitent développer leurs propres solutions d'IA se retrouvent en grande partie dépendantes de l'infrastructure cloud de ces mêmes acteurs, renforçant ainsi leur position dominante sur toute la chaîne de valeur, de la recherche fondamentale jusqu'à la distribution commerciale. Cette domination est le fruit de décennies d'investissement massif dans la recherche et l'infrastructure. Google Finance cette transformation depuis les années 2010 via DeepMind et Google Brain, tandis que Microsoft a su reconvertir sa position de leader du logiciel d'entreprise en levier d'adoption de l'IA générative. La barrière à l'entrée est désormais astronomique : entraîner un grand modèle de langage compétitif nécessite des dizaines de milliers de GPU et des investissements se chiffrant en milliards de dollars, ce que seuls quelques acteurs peuvent se permettre. La question qui se pose pour la suite est double : comment les régulateurs, notamment en Europe avec l'AI Act, vont-ils encadrer cette concentration de pouvoir technologique, et quels nouveaux entrants, à l'image d'Anthropic ou Mistral, parviendront à s'imposer face à des géants qui ont pris plusieurs longueurs d'avance ?

UELa concentration du pouvoir IA entre quelques géants américains renforce la dépendance des entreprises européennes à des infrastructures cloud étrangères, un enjeu central de l'AI Act et une menace directe pour la souveraineté numérique de l'UE.

BusinessActu
1 source
Anthropic mise 400 millions sur une équipe de 10 chercheurs pour accélérer la découverte de médicaments avec l’IA
2Siècle Digital 

Anthropic mise 400 millions sur une équipe de 10 chercheurs pour accélérer la découverte de médicaments avec l’IA

Anthropic a acquis Coefficient Bio, une startup spécialisée dans la découverte de médicaments par intelligence artificielle, pour 400 millions de dollars entièrement réglés en actions Anthropic. La société, fondée par deux anciens chercheurs de Prescient Design, l'unité de calcul moléculaire de Genentech, ne comptait qu'une dizaine de personnes au moment de la transaction. Dimension, le fonds de capital-risque spécialisé en santé qui détenait la moitié du capital de Coefficient, a informé ses investisseurs de l'opération par une simple lettre. Cette acquisition marque une entrée directe d'Anthropic dans le secteur pharmaceutique, au-delà du simple rôle de fournisseur de modèles. Pour l'industrie du médicament, l'arrivée d'un laboratoire d'IA frontier avec des capacités de recherche moléculaire intégrées représente un changement de paradigme : les systèmes capables de raisonner sur des structures biologiques complexes pourraient compresser drastiquement les phases de découverte, aujourd'hui comptées en années et en centaines de millions de dollars. Coefficient Bio s'inscrit dans une vague de startups nées à l'intersection du deep learning et de la biologie computationnelle, portée par les succès d'AlphaFold et des modèles de diffusion appliqués aux protéines. Anthropic, qui cherche à diversifier ses applications au-delà des assistants textuels, suit ainsi une trajectoire similaire à celle de Google DeepMind dans les sciences du vivant. L'intégration de cette équipe de chercheurs pointus suggère qu'Anthropic ambitionne de développer des capacités propriétaires en biologie, et pas seulement d'optimiser ses modèles généralistes pour le secteur pharma.

BusinessOpinion
1 source
Anthropic coupe l’accès à Claude pour OpenClaw et tous les outils tiers
3Siècle Digital 

Anthropic coupe l’accès à Claude pour OpenClaw et tous les outils tiers

Anthropic a mis fin à l'accès de Claude pour OpenClaw et plusieurs outils tiers similaires, mettant brutalement fin à un modèle économique qui avait trouvé un public significatif depuis son lancement en novembre 2025. OpenClaw proposait d'exploiter les capacités de Claude comme moteur d'automatisation via un abonnement mensuel d'environ 22 euros, en s'appuyant sur un abonnement Pro partagé. Face à une facturation à la consommation via l'API officielle qui peut grimper à plusieurs milliers de dollars pour des usages intensifs, l'offre était clairement attractive. La décision d'Anthropic touche directement les utilisateurs qui avaient intégré ces outils dans leurs workflows professionnels ou personnels, souvent sans solution de remplacement immédiate au même coût. Pour les développeurs et créateurs de ces services tiers, c'est un modèle économique entier qui s'effondre. L'entreprise américaine protège ainsi ses revenus API directs, mais ferme aussi la porte à une catégorie d'utilisateurs qui n'auraient probablement jamais payé les tarifs officiels. Cette décision s'inscrit dans une tension croissante entre les fournisseurs de modèles de langage et l'écosystème de services tiers qui se construit autour d'eux. OpenAI a connu des situations similaires avec des outils exploitant ses abonnements ChatGPT. Anthropic, dont la valorisation dépasse désormais les 60 milliards de dollars après plusieurs levées de fonds majeures, cherche à mieux contrôler la chaîne de valeur autour de Claude et à orienter les usages intensifs vers ses propres offres API commerciales.

UELes utilisateurs européens ayant intégré ces outils tiers dans leurs workflows professionnels sont contraints de migrer vers des alternatives souvent bien plus coûteuses via l'API officielle d'Anthropic.

BusinessOpinion
1 source
Anthropic de nouveau confronte a une penurie de puissance de calcul
4The Information AI 

Anthropic de nouveau confronte a une penurie de puissance de calcul

Anthropic a annoncé lundi avoir franchi le cap de 30 milliards de dollars de revenus annualisés, ce qui représente une croissance de 58% depuis fin février. Ce chiffre suggère que l'entreprise aurait dépassé OpenAI, qui affichait 25 milliards de dollars de revenus annualisés en février dernier. La société, créatrice du chatbot Claude, confirme ainsi sa montée en puissance rapide sur le marché de l'intelligence artificielle générative. Cette progression spectaculaire s'accompagne pourtant d'une décision qui a provoqué la colère de la communauté des développeurs. Vendredi, Anthropic a annoncé que les utilisateurs souhaitant intégrer Claude dans des outils tiers -- comme l'agent IA open source OpenClaw -- devront désormais acheter une capacité supplémentaire dédiée, et ne pourront plus s'appuyer sur leur abonnement Claude existant. Cette restriction est directement liée à une pénurie de capacité de calcul : la demande explose si vite qu'Anthropic ne parvient pas à fournir suffisamment de ressources pour tous les usages simultanément. Derrière cette décision se cache un problème structurel qui touche l'ensemble du secteur : la course effrénée à la puissance de calcul. Anthropic, comme ses concurrents, investit massivement en infrastructure pour tenir le rythme de sa croissance. En bridant l'accès des développeurs tiers, l'entreprise cherche à préserver la qualité de service pour ses clients directs, au risque de freiner l'adoption de Claude dans l'écosystème open source -- un arbitrage risqué alors que la guerre des plateformes d'IA s'intensifie.

UELes développeurs européens intégrant Claude dans des outils tiers devront désormais souscrire une capacité de calcul dédiée, augmentant le coût d'accès à l'API et freinant l'adoption dans l'écosystème open source européen.

💬 30 milliards annualisés, c'est impressionnant, mais là ils ralentissent les devs tiers pour tenir la charge, ce qui est quand même un signal d'alarme. Quand t'as les ressources pour construire l'infra et que t'arrives pas à suivre ta propre demande, ça veut dire que la croissance est vraiment verticale. Reste que brider l'écosystème open source pour protéger les clients directs, c'est un pari risqué sur le long terme.

BusinessOpinion
1 source