Aller au contenu principal
[AINews] Codex monte en puissance, Claude encadre l'utilisation par API
OutilsLatent Space2h

[AINews] Codex monte en puissance, Claude encadre l'utilisation par API

Résumé IASource uniqueImpact UE
Source originale ↗·

Depuis le lancement de GPT-5.5 il y a trois semaines, un rééquilibrage s'opère discrètement dans l'écosystème du développement assisté par IA. OpenAI gagne du terrain auprès des ingénieurs IA avec Codex, porté par des limites d'utilisation jugées plus généreuses, tandis qu'Anthropic a annoncé une refonte de sa politique tarifaire pour Claude. Désormais, chaque abonnement Claude inclut un crédit mensuel en tokens API égal au montant payé : un abonné à 200 dollars par mois reçoit à la fois un accès illimité aux interfaces propriétaires d'Anthropic (Claude.ai, Claude Code) et 200 dollars de crédits API pour les usages tiers. Le changement coïncide, non sans ironie, avec le lancement par OpenAI d'une promotion ciblant les entreprises souhaitant migrer depuis Anthropic.

Cette décision est perçue par une partie de la communauté comme un "rug pull" : les utilisateurs de harnesses alternatifs comme OpenClaw, claude-p ou d'autres outils non officiels bénéficiaient jusqu'ici d'une remise estimée à 70-90 % par rapport aux tarifs API officiels, une subvention tacite qui disparaît aujourd'hui. Concrètement, Anthropic met désormais ses conditions tarifaires les plus avantageuses derrière ses propres outils, en mesurant et facturant tout ce qui passe par des canaux tiers. L'annonce clarifie certes une zone grise qui laissait certains harnesses dans un flou inconfortable, mais elle marque une rupture nette avec la générosité initiale qui avait contribué à l'adoption massive de Claude chez les développeurs.

Ce tournant s'inscrit dans une dynamique plus large de maturation du marché. Anthropic, dont la valorisation continue de grimper à l'approche d'une probable introduction en bourse en octobre 2026, consolide son écosystème propriétaire après avoir établi Claude Code comme harness de référence. En face, Codex joue la carte du challenger en adoptant une politique d'accès plus ouverte. Sur le plan de l'infrastructure agent, la semaine a aussi été marquée par plusieurs lancements significatifs : LangChain a présenté à sa conférence Interrupt un ensemble d'outils comprenant LangSmith Engine, SmithDB (une base de données d'observabilité offrant des accès 12 à 15 fois plus rapides sur certaines charges), et des agents managés longue durée ; Cline a open-sourcé un SDK revu avec support d'équipes d'agents et de jobs planifiés ; Notion a lancé une API d'agents externes permettant à Claude, Codex, Cursor ou Devin d'opérer directement dans Notion ; et Cursor a étendu ses agents cloud avec des environnements de développement isolés et versionnés. L'industrie semble entrer dans une phase où la bataille ne se joue plus seulement sur la qualité des modèles, mais sur qui contrôle les couches d'orchestration et d'infrastructure autour d'eux.

Impact France/UE

Les développeurs européens utilisant des harnesses tiers pour accéder à Claude via API devront revoir leur infrastructure ou leur budget, la subvention tacite estimée à 70-90 % disparaissant avec la nouvelle politique tarifaire d'Anthropic.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
1Latent Space 

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview. Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible. Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

UELes nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

OutilsOutil
1 source
Onyx : une alternative à Claude, plus puissante, open-source et locale ?
2Le Big Data 

Onyx : une alternative à Claude, plus puissante, open-source et locale ?

Onyx est une plateforme d'intelligence artificielle open source qui a franchi le cap des 20 000 étoiles sur GitHub début avril 2026, attirant l'attention des équipes techniques à la recherche d'alternatives aux solutions propriétaires comme Claude d'Anthropic. Conçue pour s'installer en self-hosting via Docker, elle fonctionne comme une couche d'orchestration complète : elle se connecte à plus de 40 sources de données d'entreprise (stockage, messagerie, gestion de projet), indexe les contenus en continu et dialogue avec n'importe quel LLM, qu'il s'agisse de modèles cloud, d'API externes ou de modèles tournant entièrement en local. Sur les benchmarks de recherche approfondie, Onyx affiche des scores supérieurs à plusieurs solutions propriétaires, en combinant recherche sémantique, indexation permanente et exploration web intégrée pour produire des réponses contextualisées et traçables. L'enjeu concret est la souveraineté technologique des organisations. En permettant de choisir librement le modèle sous-jacent selon chaque usage et d'optimiser les coûts sans dépendre d'un fournisseur unique, Onyx élimine le risque de verrouillage propriétaire qui préoccupe de nombreux DSI et responsables de la sécurité informatique. Les réponses ne reposent plus sur des données d'entraînement génériques, mais sur les documents internes réels de l'entreprise, synchronisés en temps réel. Dans des environnements professionnels où chaque réponse doit être justifiable et auditable, cette traçabilité représente un avantage opérationnel direct. L'outil "Craft" intégré pousse la logique plus loin : il permet de générer non seulement des documents, mais aussi des tableaux de bord, des applications web et des visualisations à partir des données internes, dans des environnements isolés garantissant la confidentialité. Le lancement d'Onyx s'inscrit dans une dynamique plus large de professionnalisation de l'IA open source, portée par des projets comme LangChain, Ollama ou LlamaIndex, qui ont progressivement rendu accessibles des capacités jusqu'alors réservées aux grandes plateformes cloud. Face à la montée en puissance de Claude, GPT-4o et Gemini, une partie de l'écosystème technique cherche à construire des infrastructures IA qui restent sous contrôle de l'organisation. Onyx mise sur la dimension collaborative pour se différencier davantage : la plateforme gère des rôles, des accès granulaires et des agents automatisés configurables avec des règles précises, la rapprochant d'un système applicatif complet plutôt que d'un simple assistant conversationnel. La prochaine étape pour le projet sera de démontrer sa robustesse à l'échelle dans des environnements de production critiques, un terrain où les solutions propriétaires conservent encore une avance significative en matière de support et de garanties contractuelles.

UELes organisations européennes soucieuses de souveraineté numérique et de conformité RGPD peuvent déployer Onyx en self-hosting pour garder leurs données internes hors des clouds américains.

OutilsOutil
1 source
Claude Dispatch et la puissance des interfaces
3One Useful Thing 

Claude Dispatch et la puissance des interfaces

Les modèles d'intelligence artificielle sont aujourd'hui bien plus capables que ce que la plupart des utilisateurs perçoivent — non pas en raison de leurs limites techniques, mais à cause des interfaces qui servent d'intermédiaires. Une étude récente a soumis un groupe de professionnels de la finance à une tâche complexe d'évaluation d'actifs en utilisant GPT-4o, en mesurant leur charge cognitive tour par tour à partir des transcriptions. Résultat : si les participants ont bien enregistré un gain de productivité, celui-ci était largement annulé par la forme même des réponses — des blocs de texte massifs, des digressions non sollicitées, des discussions qui s'emballaient sans jamais se recentrer. Une fois qu'une conversation devenait confuse, elle le restait : le modèle, optimisé pour être utile, amplifiait le désordre introduit par l'utilisateur, et l'utilisateur, débordé, n'avait plus la capacité de réorganiser. Les travailleurs les moins expérimentés — pourtant ceux qui auraient le plus à gagner — étaient les plus pénalisés. Ce constat soulève une question fondamentale pour l'industrie : l'interface est-elle devenue le principal obstacle à l'adoption réelle de l'IA en milieu professionnel ? Pour les développeurs, la réponse existe déjà sous forme d'outils spécialisés. Claude Code d'Anthropic, Codex d'OpenAI ou Antigravity de Google permettent à un agent de travailler de façon autonome pendant des heures sur une base de code, sans que l'utilisateur n'ait besoin de toucher une ligne de code manuellement. Ces environnements supposent toutefois une familiarité avec Python, Git et les terminaux années 1980 — ce qui exclut de facto les 99 % de travailleurs du savoir qui ne sont pas développeurs. Google semble être le laboratoire le plus actif pour explorer d'autres métiers. Stitch propose une toile infinie où l'on décrit une application en langage naturel pour obtenir des écrans interconnectés avec un système de design cohérent. Pomelli cible le marketing : en collant simplement l'URL d'un site, l'outil génère des campagnes social media adaptées à l'identité visuelle de la marque, sans jamais demander de "prompt". NotebookLM, le plus connu des trois, offre un espace structuré pour organiser et interroger des sources d'information hétérogènes. Ces outils restent imparfaits et loin de l'efficacité transformatrice de Claude Code pour les programmeurs, mais ils dessinent une trajectoire : celle d'interfaces construites autour du vocabulaire et des workflows propres à chaque profession, plutôt qu'autour d'une fenêtre de chat généraliste. L'enjeu des prochaines années ne sera pas tant la puissance brute des modèles que la qualité des environnements dans lesquels ils s'intègrent.

OutilsOutil
1 source
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs
4Next INpact 

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

Le 30 mars 2026, plusieurs développeurs ont découvert avec stupéfaction que GitHub Copilot avait modifié leurs pull requests pour y insérer des messages promotionnels. L'agent IA de Microsoft avait ajouté, directement dans le fil de revue de code, une phrase vantant l'intégration de Copilot avec Raycast — un outil de productivité macOS et Windows — accompagnée d'un émoji éclair et d'un lien vers le site de l'éditeur. La capture d'écran publiée par le développeur australien Zach Manson a rapidement circulé sur les réseaux sociaux, déclenchant une vague d'indignation dans la communauté. Martin Woodward, vice-président en charge des relations développeurs chez GitHub, est intervenu en urgence sur X le soir même pour annoncer la désactivation immédiate de la fonctionnalité. Selon lui, le comportement problématique a été introduit le 24 mars lors d'un déploiement étendant la capacité de Copilot à intervenir sur n'importe quelle pull request à la demande d'un développeur. La réaction a été virulente parce qu'elle touche à quelque chose de fondamental : l'intégrité du code et du processus de revue. Quand un outil censé assister les développeurs commence à modifier leur espace de travail pour y glisser des recommandations commerciales — même habillées en « conseils produits » — la confiance s'effondre immédiatement. GitHub a beau nier toute intention publicitaire, la distinction est difficile à tenir lorsque le message pointe vers un produit tiers spécifique avec un lien cliquable. Pour les équipes qui utilisent les pull requests comme espace de collaboration technique, voir une IA y introduire du contenu non sollicité soulève des questions concrètes sur le contrôle de leur environnement de développement. Cette affaire s'inscrit dans un contexte plus large de tensions croissantes entre GitHub et ses utilisateurs. La plateforme avait annoncé quelques jours plus tôt une extension de la collecte de données issues des interactions avec Copilot, activée par défaut avec désactivation manuelle — un opt-out que beaucoup ont mal accueilli. Zach Manson a d'ailleurs cité la théorie de la « merdification » de Cory Doctorow pour décrire la trajectoire des plateformes tech : séduire les utilisateurs, puis monétiser leur attention au détriment de l'expérience. GitHub appartient à Microsoft depuis 2018 et doit rentabiliser ses investissements massifs dans Copilot, ce qui crée une pression structurelle vers ce type de dérives. La désactivation rapide montre que la communauté des développeurs reste capable d'imposer un recul, mais l'incident illustre à quel point la frontière entre assistance IA et intrusion commerciale peut être franchie discrètement, sous couvert d'une simple mise à jour.

UEL'extension de la collecte de données Copilot activée par défaut soulève des questions de conformité RGPD pour les développeurs et entreprises européennes utilisant GitHub.

💬 De la pub dans mes pull requests, injectée par l'outil censé m'aider, c'est exactement le genre de truc qui fait perdre confiance en une seule capture d'écran. GitHub a reculé vite, mais le mal est fait : quand tu commences à te demander si ton assistant IA travaille pour toi ou pour son éditeur, tu passes la moitié de ton attention à surveiller ses sorties. La merdification, c'est rarement un grand soir, c'est juste une feature de trop par trimestre.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour