Aller au contenu principal
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
OutilsThe Decoder6sem

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface.

Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret.

Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

Impact France/UE

Les développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge AI 

OpenAI met à jour Codex pour concurrencer directement Claude Code d'Anthropic

OpenAI a annoncé une mise à jour majeure de Codex, son système de développement agentique, en lui ajoutant plusieurs nouvelles capacités : contrôle d'applications de bureau, génération d'images et mémoire des expériences passées. Concrètement, Codex peut désormais prendre le contrôle d'apps installées sur l'ordinateur de l'utilisateur, opérer en arrière-plan sans perturber les autres tâches en cours, et faire tourner plusieurs agents en parallèle. Le déploiement a débuté pour les utilisateurs de l'application desktop Codex. Pour les développeurs, ces ajouts changent la donne : il devient possible de tester et itérer sur des interfaces graphiques, de valider des applications, ou d'interagir avec des logiciels qui n'exposent pas d'API. La mémoire persistante permet à Codex de capitaliser sur les sessions précédentes, rendant l'outil progressivement plus adapté aux flux de travail individuels. La parallélisation des agents accélère les cycles de développement sur des projets complexes. Cette mise à jour s'inscrit dans une bataille directe avec Anthropic et son outil Claude Code, qui s'est imposé ces derniers mois comme la référence chez les développeurs professionnels. OpenAI cherche à reconquérir ce terrain en élargissant les capacités de Codex au-delà du simple éditeur de code vers un assistant de développement complet, capable d'agir sur l'ensemble de l'environnement de travail. La course à l'agent de développement autonome s'intensifie, avec des enjeux considérables pour l'adoption en entreprise.

UELes développeurs français et européens peuvent directement tester les nouvelles capacités agentiques de Codex, mais la mise à jour ne cible pas spécifiquement le marché ou la réglementation européenne.

OutilsOutil
1 source
Anthropic lance Claude Platform sur AWS, accessible depuis votre compte
2AWS ML Blog 

Anthropic lance Claude Platform sur AWS, accessible depuis votre compte

Anthropic a annoncé le 11 mai 2026 la disponibilité générale de Claude Platform on AWS, un nouveau service permettant aux clients Amazon Web Services d'accéder directement à la plateforme native d'Anthropic via leur compte AWS, sans avoir besoin de contrat séparé, de credentials distincts ni de relation de facturation indépendante. AWS devient ainsi le premier fournisseur cloud à proposer l'expérience native Claude Platform. Concrètement, les développeurs accèdent aux mêmes API et fonctionnalités que ceux qui passent directement par Anthropic : l'API Messages, Claude Managed Agents (en bêta), la recherche web, le connecteur MCP (en bêta), les Agent Skills (en bêta), l'exécution de code et l'API Files. L'authentification repose sur les credentials IAM existants d'AWS, la facturation s'effectue via AWS Marketplace à la consommation, et toute l'activité est tracée dans AWS CloudTrail. Ce lancement simplifie considérablement l'adoption de l'IA pour les équipes déjà ancrées dans l'écosystème AWS. Là où il fallait auparavant gérer des comptes distincts, des clés API séparées et des lignes budgétaires parallèles, tout se consolide désormais dans une seule console, un seul budget et un seul système d'audit. Les directions techniques et les équipes de conformité y trouvent un avantage immédiat : la traçabilité CloudTrail permet de superviser les usages de l'IA exactement comme n'importe quel autre service AWS. Pour les entreprises qui déploient des applications à grande échelle, la possibilité de segmenter les projets, les environnements et les équipes via des workspaces avec des politiques IAM granulaires représente un gain organisationnel significatif. Ce service s'inscrit dans une tendance de fond où les grands fournisseurs de modèles cherchent à réduire la friction d'adoption en s'intégrant dans les infrastructures cloud existantes plutôt qu'en imposant des écosystèmes parallèles. Anthropic propose déjà ses modèles Claude via Amazon Bedrock, mais Claude Platform on AWS va plus loin en donnant accès à la plateforme complète, y compris les fonctionnalités en bêta les plus récentes. Il convient de noter que le service est opéré par Anthropic et que les données sont traitées en dehors du périmètre de sécurité d'AWS, ce qui le positionne davantage pour les équipes sans exigences strictes de résidence régionale des données. La prochaine étape probable sera l'extension à d'autres fournisseurs cloud et l'intégration progressive des fonctionnalités bêta vers la disponibilité générale, consolidant ainsi la stratégie de distribution multicanal d'Anthropic.

UELes entreprises européennes hébergées sur AWS peuvent désormais accéder à Claude Platform directement depuis leur console AWS, mais les données étant traitées hors du périmètre sécurisé d'AWS, les acteurs soumis au RGPD devront vérifier la conformité avant toute adoption.

OutilsOutil
1 source
Le mode automatique de Claude Code d'Anthropic devient plus sûr
3The Verge AI 

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
4Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour