
Au-delà des limites de vitesse : l'échelle d'accès à Codex et Sora
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

Datadog utilise Codex, un outil développé par OpenAI, pour effectuer des revues de code au niveau système. Cette collaboration vise à améliorer la qualité et la sécurité du code en automatisant l'analyse technique.

L'article aborde l'utilisation de Codex, un outil d'IA développé par Google, dans le contexte de l'ingénierie des harnais, en mettant l'accent sur son rôle dans un environnement axé sur les agents. Il discute des avantages de Codex pour générer et manipuler du code, facilitant ainsi le travail des ingénieurs dans le développement et la maintenance des systèmes.

Au premier trimestre 2026, les entreprises ont cessé d'empiler de nouvelles couches techniques dans leurs systèmes de RAG (génération augmentée par récupération) pour se concentrer sur la réparation de celles qu'elles avaient déjà construites. C'est ce que révèlent les données VB Pulse collectées entre janvier et mars auprès d'organisations de plus de 100 employés, avec 45 à 58 répondants qualifiés par mois. Le chiffre le plus frappant : l'intention d'adopter la récupération hybride a triplé en un seul trimestre, passant de 10,3 % à 33,3 %. Parallèlement, les priorités budgétaires se sont inversées : les dépenses consacrées aux tests d'évaluation ont chuté de 32,8 % à 15,6 %, tandis que l'optimisation de la récupération progressait de 19 % à 28,9 %, dépassant pour la première fois l'évaluation comme premier poste d'investissement. Les bases de données vectorielles standalone, Weaviate, Milvus, Pinecone, Qdrant, ont toutes perdu des parts d'adoption, au profit de stacks maison qui atteignent désormais 35,6 % du marché. Ce basculement traduit un problème structurel que les entreprises ayant déployé massivement le RAG en 2025 rencontrent au même stade : l'architecture conçue pour la recherche documentaire simple ne tient pas à l'échelle des agents autonomes. La récupération hybride, qui combine embeddings denses, recherche lexicale sparse et couches de reranking, s'impose comme réponse de consensus car elle offre la précision et le contrôle d'accès que les workloads agentiques exigent en production. Steven Dickens, vice-président chez HyperFRAME Research, résume la situation vécue par les équipes data : gérer simultanément un store vectoriel, une base graphe et un système relationnel pour alimenter un seul agent représente un cauchemar opérationnel. La montée des stacks personnalisés n'est pas un rejet des solutions managées, mais une réponse à la fatigue de fragmentation. Ce tableau d'ensemble comporte pourtant des angles morts importants. Selon les données VB Pulse, 22,2 % des répondants qualifiés déclaraient en mars n'avoir aucun système RAG en production, contre 8,6 % en janvier, un signal que le rapport attribue à des organisations ayant suspendu ou jamais engagé leurs programmes, concentrées dans la santé, l'éducation et le secteur public. Ces secteurs affichent aussi les taux les plus élevés de budgets stagnants. À l'autre extrémité du spectre, certaines entreprises continuent de miser sur l'infrastructure vectorielle dédiée pour des cas d'usage exigeants : la société &AI fait tourner une recherche sémantique sur des centaines de millions de documents de contentieux en propriété intellectuelle, où l'ancrage de chaque résultat dans un document source réel n'est pas facultatif. Le marché du RAG en 2026 n'est donc pas uniforme : il se divise entre ceux qui reconstruisent ce qu'ils ont précipitamment déployé, ceux qui n'ont pas encore commencé, et ceux qui ont trouvé des cas d'usage suffisamment critiques pour justifier une infrastructure de précision.

NTT DATA et NVIDIA s'associent pour proposer des "AI factories" d'entreprise — des plateformes full-stack intégrant les GPU NVIDIA, NeMo et NIM Microservices — permettant aux organisations de passer rapidement du pilote à la production à grande échelle. L'architecture couvre tout le cycle de vie de l'IA (entraînement, déploiement, gouvernance) dans des environnements cloud et edge. Parmi les premiers déploiements : un hôpital en oncologie pour l'analyse radiologique, un équipementier automobile pour réduire les temps de mise en production, et un fabricant américain utilisant la simulation accélérée pour valider une ligne de production de batteries.
UENTT DATA, présent en Europe, pourrait déployer ces plateformes d'IA industrielles auprès d'entreprises européennes dans les secteurs de la santé et de l'automobile.
Recevez l'essentiel de l'IA chaque jour
Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.