Aller au contenu principal
[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
OutilsLatent Space1h

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·
[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
▶ Voir sur YouTube

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview.

Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible.

Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

Impact France/UE

Les nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 Le point de vue du dev

OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
1Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
2AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source
3AI News 

SAP intègre des agents IA autonomes à la gestion des ressources humaines

SAP a dévoilé sa version SuccessFactors 1H 2026, qui intègre des agents IA autonomes dans les modules centraux de gestion du capital humain : recrutement, paie, administration RH et développement des talents. Ces agents opèrent en arrière-plan pour surveiller les états système, détecter les anomalies et proposer des corrections contextuelles aux administrateurs. Par exemple, lorsque des données employés échouent à se répliquer entre systèmes distribués à cause d'un attribut manquant, l'agent croise les données de profils similaires, identifie la variable absente selon les patterns organisationnels, et soumet directement la correction requise à l'administrateur. Cette automatisation réduit significativement le temps moyen de résolution des tickets de support interne. La version intègre également une fonctionnalité de questions-réponses intelligente dans le module de formation, permettant aux employés d'obtenir des réponses instantanées tirées directement du contenu pédagogique de leur organisation, sans passer par des recherches manuelles dans la documentation. L'enjeu concret est double : réduire les coûts opérationnels et éliminer les goulots d'étranglement administratifs qui ralentissent la productivité quotidienne. Le pipeline d'intégration entre SmartRecruiters, SAP SuccessFactors Employee Central et le module d'onboarding illustre cet objectif : les évaluations techniques d'un candidat, ses vérifications d'antécédents et les termes négociés transitent automatiquement vers le référentiel RH central, supprimant la ressaisie manuelle des données. Le délai entre la signature d'une offre et le premier jour productif d'un employé représente un coût direct sur les marges, et cette intégration vise à le comprimer. Pour les DSI, l'équation reste néanmoins délicate : le coût d'infrastructure cloud lié à l'analyse continue de millions de dossiers employés doit être mis en balance avec les économies générées par la réduction des tickets IT. SAP s'inscrit dans une dynamique plus large de consolidation des écosystèmes RH d'entreprise autour de l'IA agentique, une tendance que poussent également Workday et Oracle. La difficulté technique centrale réside dans l'articulation entre des modèles de langage modernes et des bases de données relationnelles héritées, qui exige une configuration middleware complexe. Pour éviter que des hallucinations algorithmiques n'altèrent des données financières critiques, SAP impose des garde-fous stricts : les architectures RAG utilisées sont ancrées aux lacs de données certifiés de l'entreprise, garantissant que l'IA n'agit que sur des politiques internes validées. La version introduit aussi un assistant de personnalisation guidée sur la SAP Business Technology Platform, permettant aux équipes techniques de construire des extensions métier sans risquer de les voir cassées lors des cycles de mise à jour cloud, un point de friction chronique dans les déploiements SaaS d'entreprise.

UESAP étant une entreprise allemande dont les solutions RH sont déployées dans de nombreuses grandes entreprises françaises, l'intégration d'agents IA autonomes dans SuccessFactors concerne directement les DSI et DRH français qui devront évaluer les coûts d'infrastructure cloud et les implications réglementaires (RGPD) du traitement automatisé des données employés.

OutilsOutil
1 source
Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud
4Le Big Data 

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud

Mistral AI a franchi une étape décisive le 29 avril 2026 avec le lancement des agents distants dans sa plateforme Vibe. Jusqu'à présent cantonnés à la machine locale de l'utilisateur, ces agents peuvent désormais s'exécuter entièrement dans le cloud, lancés depuis la ligne de commande ou depuis Le Chat, l'interface conversationnelle de Mistral. Le moteur de cette évolution est Mistral Medium 3.5, un nouveau modèle conçu spécifiquement pour gérer le raisonnement, le suivi d'instructions complexes et la génération de code. Une fois une tâche lancée, l'agent travaille en arrière-plan, peut poser des questions si nécessaire, suit les modifications de fichiers en temps réel et, en fin de session, crée automatiquement une pull request sur GitHub pour validation. Plusieurs agents peuvent fonctionner en parallèle, et une session locale peut être basculée dans le cloud sans interruption. Ce changement modifie profondément la position du développeur dans le cycle de production. L'utilisateur n'est plus un point de blocage : il confie une tâche, reprend ses activités, et n'intervient qu'au moment de la validation finale. Chaque session s'exécute dans un environnement isolé où l'agent peut installer des dépendances, tester des correctifs et modifier du code de façon autonome. La portée dépasse le seul développement logiciel : le mode Travail intégré à Le Chat étend la même logique à la recherche, à l'analyse et à la rédaction, permettant de préparer automatiquement une réunion, de gérer des tickets ou de traiter des e-mails. Vibe s'intègre directement dans les écosystèmes existants, GitHub, Jira, Linear, Slack, Teams, sans remplacer ces outils mais en les activant via l'IA. Cette annonce s'inscrit dans une compétition acharnée autour du "vibe coding" et des agents d'ingénierie autonomes, un segment où Cursor, GitHub Copilot Workspace et Devin se disputent déjà le marché. Mistral, qui a levé 1,1 milliard de dollars fin 2024 et revendique une position d'alternative européenne aux géants américains, accélère sa montée en gamme vers des cas d'usage professionnels à forte valeur ajoutée. La sortie simultanée de Mistral Medium 3.5 comme socle technique des agents Vibe signale une stratégie de verticalisation : contrôler à la fois le modèle et la couche applicative. Les prochaines étapes probables concerneront l'élargissement des intégrations d'outils, la gestion de projets multi-dépôts et une tarification adaptée aux équipes d'ingénierie qui délèguent des workflows entiers à ces agents.

UEMistral, entreprise française, consolide sa position dans la course aux agents de codage autonomes et offre aux équipes européennes une alternative souveraine aux outils américains comme Cursor ou GitHub Copilot Workspace.

💬 Mistral fait enfin le truc qu'on attendait : contrôler à la fois le modèle et la couche applicative, pas juste vendre une API. La PR automatique en fin de session, c'est le petit détail qui change tout dans le quotidien d'une équipe, parce que c'est là que la supervision humaine a encore du sens. Reste à voir si Medium 3.5 tient la comparaison avec ce que Cursor fait tourner depuis des mois.

OutilsOutil
1 source