Aller au contenu principal

Dossier Codex — page 3

111 articles · page 3 sur 3

Codex, l'environnement de développement d'OpenAI : intégration NVIDIA, plugins Slack/Figma/Notion, plateforme agentique enterprise.

TinyFish AI lance une plateforme web complète pour agents autonomes : recherche, fetch, navigateur et agent sous une seule clé API
101MarkTechPost OutilsOutil

TinyFish AI lance une plateforme web complète pour agents autonomes : recherche, fetch, navigateur et agent sous une seule clé API

TinyFish AI, une startup basée à Palo Alto, a lancé ce mois-ci une plateforme d'infrastructure complète pour les agents IA opérant sur le web en temps réel. L'offre regroupe quatre produits sous une seule clé API et un système de crédits unifié : Web Agent, Web Search, Web Browser et Web Fetch. Web Search retourne des résultats structurés en JSON avec une latence médiane de 488 millisecondes, contre plus de 2 800 ms chez les concurrents. Web Browser fournit des sessions Chrome furtives via le protocole CDP avec un démarrage à froid inférieur à 250 ms, là où les alternatives prennent 5 à 10 secondes. Le module intègre 28 mécanismes anti-bot codés en C++, une approche bien plus difficile à détecter que l'injection JavaScript habituellement utilisée. Web Fetch convertit n'importe quelle URL en Markdown, HTML ou JSON propre, en éliminant les scripts, publicités et éléments de navigation superflus. Web Agent, lui, exécute des workflows autonomes en plusieurs étapes sur des sites réels, sans scripts manuels. Ce qui rend cette plateforme particulièrement pertinente pour les développeurs d'agents IA, c'est la façon dont elle résout un problème structurel : la pollution de la fenêtre de contexte. Lorsqu'un agent utilise un outil de fetch classique, il ingère la page entière, y compris des milliers de tokens de balisage inutile, avant d'atteindre le contenu utile. TinyFish affirme réduire ce coût de 87 % en mode CLI, passant d'environ 1 500 tokens par opération via MCP à seulement 100 tokens. L'architecture CLI écrit les résultats sur le système de fichiers plutôt que de les injecter directement dans le contexte, ce qui préserve la cohérence sur les tâches longues et permet la composition via les pipes Unix natifs. Sur des workflows complexes en plusieurs étapes, la société revendique un taux de complétion deux fois supérieur en mode CLI par rapport à une exécution via MCP. Jusqu'ici, les équipes qui construisaient des agents web devaient assembler plusieurs prestataires distincts pour la recherche, l'automatisation du navigateur et la récupération de contenu, ce qui introduisait de la friction et des points de défaillance multiples. TinyFish avait déjà livré un agent web standalone avant ce lancement, et s'appuie sur cette expérience pour proposer une intégration directe avec les principaux environnements de coding agents du marché, dont Claude Code, Cursor, Codex et OpenCode, via un fichier SKILL.md installable en une commande. Le CLI s'installe via npm avec npm install -g @tiny-fish/cli. Dans un secteur où les agents autonomes passent de la démonstration à la production, la capacité à interagir de façon fiable et rapide avec le web vivant devient une infrastructure critique, et TinyFish se positionne explicitement comme la couche sur laquelle ces agents doivent s'appuyer.

1 source
TinyFish lance une plateforme web complète pour agents IA : recherche, fetch, navigateur et agent sous une seule clé API
102MarkTechPost 

TinyFish lance une plateforme web complète pour agents IA : recherche, fetch, navigateur et agent sous une seule clé API

TinyFish, une startup basée à Palo Alto, vient de lancer une plateforme d'infrastructure complète destinée aux agents IA qui doivent interagir avec le web en temps réel. La société propose quatre produits unifiés sous une seule clé API et un système de crédits commun : Web Agent, Web Search, Web Browser et Web Fetch. Web Agent exécute des workflows autonomes en plusieurs étapes sur de vrais sites web, Web Search renvoie des résultats structurés en JSON avec une latence médiane de 488 ms, Web Browser fournit des sessions Chrome furtives avec un démarrage à froid inférieur à 250 ms, et Web Fetch convertit n'importe quelle URL en Markdown, HTML ou JSON propre en supprimant tout le balisage superflu. En parallèle, TinyFish publie un CLI installable via npm et un système de "Skills" qui apprend aux agents comme Claude Code, Cursor ou Codex à utiliser la plateforme sans intégration manuelle de SDK. Ce lancement s'attaque à un problème concret qui plombe les pipelines d'agents IA : la pollution du contexte. Quand un agent utilise un outil de fetch standard, il ingère la page entière, incluant des milliers de tokens de navigation, publicités et code CSS, avant d'atteindre le contenu utile. TinyFish réduit cette charge de 87 %, passant d'environ 1 500 tokens par opération via MCP à seulement 100 tokens via le CLI, grâce à une logique qui écrit les résultats sur le système de fichiers plutôt que de les injecter directement dans la fenêtre de contexte. Sur des tâches complexes en plusieurs étapes, la société rapporte un taux de complétion deux fois supérieur en CLI par rapport à l'exécution via MCP. Côté anti-détection, les 28 mécanismes anti-bot du navigateur sont implémentés au niveau C++, une approche nettement plus robuste que l'injection JavaScript utilisée par la plupart des concurrents, dont les temps de démarrage dépassent 5 à 10 secondes contre moins de 250 ms ici. Le contexte de ce lancement est celui d'un marché des outils pour agents IA en pleine fragmentation : les équipes devaient jusqu'ici assembler des solutions distinctes pour la recherche, l'automatisation de navigateur et la récupération de contenu, chacune avec ses clés, ses SDKs et ses limites. TinyFish parie sur la convergence sous une interface unifiée, une stratégie similaire à ce qu'ont fait des acteurs comme Browserbase ou Firecrawl sur des segments adjacents. En intégrant directement un système de Skills compatibles avec les principaux agents de codage du marché, la startup court-circuite la friction d'adoption qui freine habituellement ces outils. La prochaine étape probable sera l'expansion vers des cas d'usage d'automatisation enterprise, un segment où la capacité à opérer discrètement sur des sites protégés par des systèmes anti-bot représente un avantage compétitif significatif.

OutilsActu
1 source
Composants d'un agent de codage
103Ahead of AI 

Composants d'un agent de codage

Les agents de codage comme Claude Code ou le Codex CLI d'OpenAI sont devenus des outils incontournables pour les développeurs, mais leur fonctionnement repose sur une architecture précise que peu d'articles détaillent. Un agent de codage n'est pas simplement un grand modèle de langage (LLM) auquel on pose des questions : c'est un LLM enveloppé dans une couche logicielle appelée "harness" (ou cadre agentique), qui orchestre les appels au modèle, gère les outils disponibles, maintient un état en mémoire et décide quand s'arrêter. Cette distinction est fondamentale : le modèle est le moteur, mais le harness est la transmission, le tableau de bord et les roues réunies. Un agent de codage comprend six composants principaux — la boucle de contrôle, la gestion du contexte, les outils (lecture/écriture de fichiers, exécution de code, recherche), la mémoire, la gestion des prompts et la continuité entre sessions longues. Ce cadre explique pourquoi Claude Code ou Codex semblent nettement plus capables que le même modèle sous-jacent utilisé dans une interface de chat ordinaire. La différence n'est pas dans les paramètres du modèle, mais dans le système qui l'entoure : la stabilité du cache de prompts, l'accès au contexte du dépôt Git, la boucle de feedback itérative après exécution du code, et la gestion de sessions qui peuvent durer des heures. Pour les développeurs et les équipes d'ingénierie, cela signifie que choisir un outil de codage assisté par IA revient autant à évaluer l'architecture du harness qu'à comparer les benchmarks des modèles. Un modèle plus puissant dans un harness médiocre produira des résultats inférieurs à un modèle modeste bien intégré. Il convient également de distinguer trois notions souvent confondues : le LLM classique génère des tokens ; le modèle de raisonnement est un LLM entraîné à produire des traces de réflexion intermédiaires et à s'auto-vérifier (à l'image de o1 ou de QwQ), ce qui le rend plus puissant mais plus coûteux à l'inférence ; l'agent, lui, est une boucle de contrôle qui appelle le modèle répétitivement dans un environnement, en mettant à jour son état à chaque itération. Le harness de codage est un cas spécialisé de harness agentique, orienté vers les tâches de génie logiciel — gestion du contexte de code, exécution, débogage itératif. Des systèmes comme Claude Code d'Anthropic ou Codex CLI d'OpenAI illustrent cette catégorie, et la tendance de fond est claire : les progrès les plus décisifs en IA appliquée ne viennent plus seulement des modèles eux-mêmes, mais de l'ingénierie des systèmes qui les entourent.

OutilsOpinion
1 source
Claude Dispatch et la puissance des interfaces
104One Useful Thing 

Claude Dispatch et la puissance des interfaces

Les modèles d'intelligence artificielle sont aujourd'hui bien plus capables que ce que la plupart des utilisateurs perçoivent — non pas en raison de leurs limites techniques, mais à cause des interfaces qui servent d'intermédiaires. Une étude récente a soumis un groupe de professionnels de la finance à une tâche complexe d'évaluation d'actifs en utilisant GPT-4o, en mesurant leur charge cognitive tour par tour à partir des transcriptions. Résultat : si les participants ont bien enregistré un gain de productivité, celui-ci était largement annulé par la forme même des réponses — des blocs de texte massifs, des digressions non sollicitées, des discussions qui s'emballaient sans jamais se recentrer. Une fois qu'une conversation devenait confuse, elle le restait : le modèle, optimisé pour être utile, amplifiait le désordre introduit par l'utilisateur, et l'utilisateur, débordé, n'avait plus la capacité de réorganiser. Les travailleurs les moins expérimentés — pourtant ceux qui auraient le plus à gagner — étaient les plus pénalisés. Ce constat soulève une question fondamentale pour l'industrie : l'interface est-elle devenue le principal obstacle à l'adoption réelle de l'IA en milieu professionnel ? Pour les développeurs, la réponse existe déjà sous forme d'outils spécialisés. Claude Code d'Anthropic, Codex d'OpenAI ou Antigravity de Google permettent à un agent de travailler de façon autonome pendant des heures sur une base de code, sans que l'utilisateur n'ait besoin de toucher une ligne de code manuellement. Ces environnements supposent toutefois une familiarité avec Python, Git et les terminaux années 1980 — ce qui exclut de facto les 99 % de travailleurs du savoir qui ne sont pas développeurs. Google semble être le laboratoire le plus actif pour explorer d'autres métiers. Stitch propose une toile infinie où l'on décrit une application en langage naturel pour obtenir des écrans interconnectés avec un système de design cohérent. Pomelli cible le marketing : en collant simplement l'URL d'un site, l'outil génère des campagnes social media adaptées à l'identité visuelle de la marque, sans jamais demander de "prompt". NotebookLM, le plus connu des trois, offre un espace structuré pour organiser et interroger des sources d'information hétérogènes. Ces outils restent imparfaits et loin de l'efficacité transformatrice de Claude Code pour les programmeurs, mais ils dessinent une trajectoire : celle d'interfaces construites autour du vocabulaire et des workflows propres à chaque profession, plutôt qu'autour d'une fenêtre de chat généraliste. L'enjeu des prochaines années ne sera pas tant la puissance brute des modèles que la qualité des environnements dans lesquels ils s'intègrent.

OutilsOutil
1 source
Qu'est-ce qui fait un bon AGENTS.md ?
105Ben's Bites 

Qu'est-ce qui fait un bon AGENTS.md ?

Les fichiers AGENTS.md/CLAUDE.md sont des instructions pré-chargées avant chaque conversation avec un agent IA — AGENTS.md étant compatible avec la plupart des outils (Codex, Droid, Pi...) contrairement à CLAUDE.md, spécifique à Claude. Contrairement aux idées reçues, ces fichiers ne doivent pas contenir la stack technique ou l'architecture du projet (une étude montre que cela dégrade les performances et augmente les coûts de 20%) : ils doivent uniquement contenir vos préférences et corrections comportementales. Une astuce avancée consiste à utiliser des blocs conditionnels (``) pour adapter les instructions selon le type de projet.

OutilsOutil
1 source
NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes
106MarkTechPost 

NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes

NVIDIA a mis en open source OpenShell, un environnement d'exécution sécurisé conçu pour les agents IA autonomes, publié sous licence Apache 2.0. Il offre un sandboxing au niveau noyau, un moteur de politiques granulaires (contrôle par binaire, endpoint et méthode API) avec journalisation complète, ainsi qu'un routage d'inférence privé pour éviter les fuites de données. OpenShell est agnostique aux frameworks — compatible avec Claude Code, Codex, LangChain et autres — et s'intègre comme une couche de sécurité sans réécriture du code agent.

UEOpenShell peut être adopté par les développeurs et entreprises européens pour sécuriser leurs agents IA autonomes, en répondant aux exigences de traçabilité et de contrôle imposées par l'AI Act européen.

OutilsOutil
1 source
107One Useful Thing 

La forme des choses

En octobre 2023, le chercheur Ethan Mollick spéculait sur la forme que prendrait l'intelligence artificielle dans les années à venir. Depuis fin 2025, cette forme est devenue nettement visible : nous sommes entrés dans une nouvelle ère, celle des agents IA autonomes. Des systèmes comme Claude Code, Codex d'OpenAI ou OpenClaw permettent désormais de confier à une IA plusieurs heures de travail humain et d'en recevoir des résultats utiles en quelques minutes. Ce n'est plus de la co-intelligence — où l'humain guide l'IA pas à pas — mais bien une relation de management : on délègue, on supervise, on récupère. Ce changement de paradigme découle directement de l'amélioration exponentielle des capacités des modèles sur les dernières années. Pour illustrer cette progression, Mollick s'appuie sur plusieurs benchmarks majeurs. Le Google-Proof Q&A — test de connaissance où des étudiants en doctorat utilisant Google n'atteignent que 34 % hors de leur domaine et 70 % dedans — est désormais résolu à 94 % par les meilleurs modèles. Sur GDPval, qui mesure les performances de l'IA face à des experts humains expérimentés sur des tâches complexes, les derniers systèmes égalent ou dépassent les humains les plus performants dans 82 % des cas. Le benchmark METR Long Tasks, qui évalue la capacité d'une IA à accomplir de manière autonome et fiable du travail humain, affiche la même courbe ascendante. Même chose pour Humanity's Last Exam, conçu par des professeurs d'université pour résister aux systèmes automatisés. La génération vidéo suit le même chemin : un modèle de ByteDance, encore non disponible aux États-Unis, a produit en une seule passe un mini-documentaire quasi parfait sur des loutres, avec expressions faciales animées et narration cohérente. Ces avancées s'inscrivent dans une dynamique plus large qui redéfinit la relation entre l'humain et la machine. Depuis le lancement de ChatGPT en 2022, la progression a été rapide et continue, sans signe de ralentissement visible avant que les modèles n'atteignent le plafond des tests. Mollick reconnaît que l'IA reste « irrégulière » — excellente sur certaines tâches, défaillante sur d'autres — et que malgré ces capacités impressionnantes, la majorité des organisations n'a pas encore substantiellement changé ses pratiques. Mais ce statu quo ne devrait pas durer : à mesure que les agents autonomes deviennent plus fiables et accessibles, la pression sur les entreprises pour adapter leurs modèles de travail va s'intensifier. La question n'est plus de savoir si l'IA peut accomplir des tâches complexes, mais à quelle vitesse les organisations sauront s'en saisir.

LLMsPaper
1 source
108MarkTechPost 

NVIDIA AI dévoile Nemotron-Terminal : un pipeline systématique d'ingénierie des données pour le passage à l'échelle des agents LLM en terminal

NVIDIA dévoile Nemotron-Terminal, un framework complet pour entraîner des agents IA autonomes en ligne de commande, incluant le pipeline Terminal-Task-Gen et le dataset Terminal-Corpus. La solution adopte une approche "coarse-to-fine" : adaptation de datasets existants (163 000 prompts mathématiques, 35 000 prompts code, 32 000 prompts SWE) combinée à une génération synthétique de tâches basée sur une taxonomie de compétences terminal couvrant 9 domaines (sécurité, data science, administration système, etc.). Ce framework vise à résoudre le manque criant de données d'entraînement pour les agents terminal, un problème qui freinait jusqu'ici des projets comme Claude Code ou Codex CLI.

OutilsPaper
1 source
10901net 

Après Claude, ChatGPT se met à traquer les failles de sécurité

OpenAI lance Codex Security, un outil capable de détecter les failles de sécurité et de proposer des correctifs, rejoignant ainsi Claude Code d'Anthropic qui offre des capacités similaires. Ces deux outils d'IA générative bouleversent le secteur de la cybersécurité. L'annonce a provoqué une chute des actions des grandes entreprises de sécurité informatique en Bourse.

OutilsActu
1 source
110OpenAI Blog 

Dans l'agent de données interne d'OpenAI

OpenAI a développé un agent de données interne capable de traiter des ensembles de données massifs en utilisant GPT-5, Codex et une mémoire avancée pour fournir des informations fiables en quelques minutes. Ce système combine des modèles de langage et de code pour raisonner sur des données complexes et générer des analyses pertinentes rapidement.

OutilsActu
1 source
111OpenAI Blog 

Cisco et OpenAI rebattent les cartes de l'ingénierie d'entreprise avec des agents intelligents

Cisco et OpenAI redessinent l'ingénierie d'entreprise grâce à Codex, un agent d'IA intégré aux flux de travail pour accélérer les constructions, automatiser les corrections de défauts et faciliter le développement natif de l'IA.

UECisco et OpenAI transforment l'ingénierie d'entreprise en France via Codex, un agent d'IA intégré aux flux de travail, affectant des secteurs tels que le développement logiciel et la cybersécurité, en accélérant les constructions, en automatisant les corrections de défauts et en facilitant le développement natif de l'IA, tout en respectant le RGPD et l'AI Act.

BusinessOutil
1 source