Aller au contenu principal
GPT-5.5 : le modèle à base d'agents le plus puissant d'OpenAI, à deux fois le prix de l'API
LLMsAI News2h

GPT-5.5 : le modèle à base d'agents le plus puissant d'OpenAI, à deux fois le prix de l'API

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

OpenAI a lancé GPT-5.5 le 23 avril 2026, présenté comme son modèle d'intelligence artificielle agentique le plus capable à ce jour. Conçu dès la base pour planifier, utiliser des outils, vérifier ses propres résultats et exécuter des tâches de façon autonome, il s'agit du premier modèle de base ré-entraîné depuis GPT-4.5, développé en coopération avec les systèmes rack NVIDIA GB200 et GB300 NVL72. Le déploiement a commencé pour les abonnés Plus, Pro, Business et Enterprise dans ChatGPT et Codex, avec un accès API ouvert dès le 24 avril. Sur Terminal-Bench 2.0, un benchmark mesurant les workflows en ligne de commande, GPT-5.5 atteint 82,7 % contre 75,1 % pour GPT-5.4 et 69,4 % pour Claude Opus 4.7. Sur SWE-Bench Pro, qui évalue la résolution de tickets GitHub, il plafonne à 58,6 %, et sur MRCR v2 à un million de tokens, il grimpe à 74,0 % contre seulement 36,6 % pour son prédécesseur. L'API est facturée 5 dollars par million de tokens en entrée et 30 dollars en sortie, soit exactement le double de GPT-5.4. La version Pro, réservée aux abonnements payants, monte à 30 dollars en entrée et 180 dollars en sortie.

Ce doublement tarifaire est le principal point de friction, mais OpenAI avance un argument concret : GPT-5.5 accomplit les mêmes tâches Codex avec moins de tokens que son prédécesseur, ce qui ramène le surcoût réel à environ 20 % selon le laboratoire indépendant Artificial Analysis. Pour les entreprises qui déploient des agents automatisés traitant des volumes importants, la différence n'est donc pas nécessairement linéaire avec le prix affiché. En interne, OpenAI affirme que plus de 85 % de ses employés utilisent Codex chaque semaine, y compris les équipes marketing, qui ont notamment utilisé GPT-5.5 pour analyser six mois de demandes de prises de parole et construire un cadre de scoring automatisant les approbations à faible risque.

GPT-5.5 s'inscrit dans une course à l'agentique qui structure désormais toute la compétition entre les grands labos d'IA. Le co-fondateur Greg Brockman y voit "un vrai pas vers le type de calcul qu'on attend pour le futur", tandis que le chief scientist Jakub Pachocki concède que les deux dernières années de progrès avaient semblé "étonnamment lentes". Un point reste ouvert : sur MCP Atlas, le benchmark de Scale AI mesurant l'utilisation d'outils via le Model Context Protocol, Claude Opus 4.7 d'Anthropic mène avec 79,1 % et GPT-5.5 n'affiche aucun score, ce qu'OpenAI a néanmoins inclus dans son propre tableau comparatif. Pour les équipes qui construisent des pipelines agentiques en production, les prochaines semaines permettront de déterminer si les performances en benchmark se traduisent en gains réels, notamment pour les agents terminaux non supervisés et l'automatisation DevOps.

Impact France/UE

Les développeurs et entreprises européens utilisant l'API OpenAI devront arbitrer entre le gain de performance agentique de GPT-5.5 et son coût doublé (5 $/M tokens en entrée, 30 $ en sortie) pour leurs pipelines en production.

💬 Le point de vue du dev

Le doublement affiché fait frémir, mais si le coût réel en prod tourne à +20% grâce à l'efficience sur les tokens, l'arbitrage change du tout au tout. Ce qui accroche plus, c'est que GPT-5.5 n'a aucun score sur MCP Atlas et qu'OpenAI l'a quand même glissé dans son tableau comparatif avec une case vide. Avant de migrer des pipelines agentiques vers GPT-5.5, c'est ce trou-là qu'il faut creuser, pas les benchmarks terminal.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

MiMo-V2.5 et V2.5-Pro de Xiaomi parmi les modèles open source les plus efficaces et abordables pour les tâches 'claw' à base d'agents
1VentureBeat AI 

MiMo-V2.5 et V2.5-Pro de Xiaomi parmi les modèles open source les plus efficaces et abordables pour les tâches 'claw' à base d'agents

Xiaomi a mis en ligne le 27 avril 2026 deux nouveaux modèles de langage open source, MiMo-V2.5 et MiMo-V2.5-Pro, publiés sous licence MIT et téléchargeables directement depuis Hugging Face. Le premier est un modèle multimodal généraliste, tandis que le second est conçu spécifiquement pour les tâches agentiques complexes. Selon les benchmarks internes de Xiaomi, MiMo-V2.5-Pro atteint un taux de réussite de 63,8 % sur le ClawEval, l'évaluation standard pour les agents autonomes de type "claw" comme OpenClaw, NanoClaw ou Hermes Agent, tout en ne consommant qu'environ 70 000 tokens par trajectoire. Ce chiffre représente 40 à 60 % de tokens en moins par rapport à Claude Opus 4.6 d'Anthropic, Gemini 3.1 Pro de Google et GPT-5.4 d'OpenAI pour des résultats comparables. L'architecture repose sur 310 milliards de paramètres et intègre une fenêtre de contexte native d'un million de tokens, avec un score de 1 581 sur le benchmark GDPVal-AA (Elo), devançant des concurrents comme Kimi K2.6 et GLM 5.1. L'efficacité en tokens n'est pas qu'une métrique abstraite : dans un secteur où des services comme GitHub Copilot de Microsoft basculent vers une facturation à l'usage, chaque token économisé se traduit directement en dollars pour les entreprises et les développeurs indépendants qui déploient des agents en production. MiMo-V2.5-Pro peut piloter des systèmes agentiques capables de créer du contenu marketing, gérer des emails, organiser des agendas ou gérer des comptes en autonomie, le tout via des applications de messagerie tierces. Que le modèle soit exécuté localement ou sur un cloud privé virtuel, la licence MIT permet une intégration commerciale sans restriction, ce qui le place directement en concurrence avec les modèles propriétaires de Google et OpenAI sur le segment entreprise. Pour étayer ses affirmations, Xiaomi a publié plusieurs démonstrations en conditions réelles : MiMo-V2.5-Pro a implémenté un compilateur complet en Rust, incluant lexer, parser et backend RISC-V, en 4,3 heures via 672 appels d'outils, obtenant un score parfait de 233 sur 233 sur des suites de tests cachés, une tâche qui prend habituellement plusieurs semaines à un étudiant en informatique. Il a également produit un éditeur vidéo de bureau de 8 192 lignes en 11,5 heures et 1 868 appels d'outils, puis optimisé un régulateur analogique en technologie TSMC 180 nm, améliorant la régulation de ligne d'un facteur 22 par rapport à sa tentative initiale. Ces résultats illustrent ce que Xiaomi appelle la "harness awareness" du modèle, sa capacité à gérer activement sa propre mémoire pour maintenir la cohérence sur des milliers d'appels séquentiels. Cette publication s'inscrit dans la stratégie agressive de Xiaomi pour s'imposer dans l'IA, un secteur où la firme, surtout connue pour ses smartphones et véhicules électriques, entend désormais rivaliser directement avec les grands laboratoires américains.

UELa licence MIT et la disponibilité sur HuggingFace permettent aux entreprises et développeurs européens d'intégrer ces modèles en production sans restriction, réduisant potentiellement les coûts liés à la facturation à l'usage des services d'agents IA.

LLMsActu
1 source
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois
2Next INpact 

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

OpenAI a lancé cette nuit GPT-5.5, nouvelle version de son grand modèle de langage, moins de deux mois après GPT-5.4 sorti le 5 mars. Le modèle cible explicitement les tâches complexes et mal structurées : OpenAI promet qu'on peut lui confier une requête à plusieurs volets, sans organisation précise, et lui faire confiance pour planifier, utiliser des outils, vérifier son propre travail et aller jusqu'au bout. Les progrès les plus marqués concernent le code agentique, l'utilisation de l'ordinateur et les premières étapes de la recherche scientifique. Sur Terminal-Bench, benchmark mesurant la capacité à enchaîner des actions et corriger des erreurs, GPT-5.5 creuse nettement l'écart avec son prédécesseur et ses concurrents. Les gains restent plus modérés sur GDPval et OSWorld. Côté prix, GPT-5.5 double les tarifs de GPT-5.4 en atteignant environ 5 dollars en entrée et 30 dollars en sortie par million de tokens, mais OpenAI avance que le modèle compense en utilisant moins de tokens pour des tâches équivalentes. Il est déjà disponible pour les abonnés payants Plus, Pro, Business et Enterprise, ainsi que dans Codex, avec l'accès API annoncé prochainement. Cette cadence de sortie illustre la pression concurrentielle extrême dans laquelle évolue OpenAI. Chaque mise à jour vise à maintenir un écart de performance sur Anthropic, Google et les modèles open source, dans un segment où les entreprises comparent désormais les coûts à la tâche accomplie plutôt qu'au token brut. L'argument d'efficacité de GPT-5.5, s'il se confirme en production, peut justifier la hausse tarifaire pour les usages professionnels intensifs, notamment le développement logiciel assisté et l'automatisation de workflows complexes. En parallèle, OpenAI a présenté Privacy Filter, un modèle inédit conçu pour détecter et supprimer des données personnelles dans du texte. Sa particularité : il peut tourner entièrement en local, sans envoyer les données vers un serveur, ce qui le rend utilisable sur des documents sensibles. Avec seulement 1,5 milliard de paramètres dont 50 millions actifs, il reste léger tout en traitant des contextes jusqu'à 128 000 tokens. Il couvre huit catégories : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets comme les mots de passe ou clés API. OpenAI est transparent sur ses limites : Privacy Filter n'est pas un outil d'anonymisation complet et exige une validation humaine dans les cas sensibles. Cette annonce s'inscrit dans un contexte réglementaire croissant autour de la protection des données, notamment en Europe, où le RGPD impose des contraintes strictes sur le traitement des informations personnelles par des systèmes d'IA.

UELe Privacy Filter, conçu pour fonctionner en local sans transfert de données, constitue une réponse directe aux exigences du RGPD et intéresse particulièrement les entreprises européennes traitant des données personnelles sensibles.

LLMsOpinion
1 source
GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?
3Le Big Data 

GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?

OpenAI et Anthropic ont tous deux lancé leurs nouveaux modèles phares à quelques semaines d'intervalle : GPT-5.5 et Claude Opus 4.7. Sur l'Artificial Analysis Intelligence Index, qui agrège les performances sur un large éventail de tâches, GPT-5.5 s'impose avec un score de 60 contre 57 pour Claude Opus 4.7, le plaçant en tête du classement mondial toutes catégories confondues. Mais les benchmarks spécialisés racontent une histoire différente : sur le GPQA Diamond, un test composé de questions de niveau doctorat en sciences dures, Claude Opus 4.7 obtient 94,2 % contre 93,6 % pour GPT-5.5. Sur l'Humanity's Last Exam, conçu pour résister à la mémorisation et testant le raisonnement interdisciplinaire pointu, l'avantage d'Anthropic se creuse davantage : 46,9 % pour Opus 4.7 contre 41,4 % pour GPT-5.5 sans outils. Les deux modèles s'appuient sur des tokens de raisonnement invisibles qui améliorent leurs capacités mais les rendent plus lents et sensiblement plus chers à l'usage. L'écart entre les deux modèles révèle deux profils d'excellence distincts qui auront des conséquences concrètes sur les choix des développeurs et des entreprises. GPT-5.5 domine sur les capacités agentiques, utilisation d'un terminal, navigation web autonome, cybersécurité offensive, ce qui en fait l'outil de référence pour l'automatisation et les workflows qui nécessitent qu'une IA "fasse des choses" de façon autonome. Claude Opus 4.7 s'impose en revanche sur les tâches qui exigent un raisonnement profond, la résolution de problèmes complexes sans réponse évidente, et la stratégie à long terme. Pour les équipes qui construisent des agents autonomes, le choix penchera vers OpenAI ; pour celles qui ont besoin d'analyse, de synthèse ou de conseil de haut niveau, Anthropic prend l'avantage. Cette confrontation s'inscrit dans une phase d'accélération sans précédent de la course aux modèles de base. OpenAI et Anthropic se disputent la position de référence auprès des entreprises, des développeurs et des plateformes tierces, sachant que le modèle adopté en infrastructure devient difficile à déloger. L'émergence des tokens de raisonnement comme standard, une technique issue des travaux sur les "chain-of-thought" et popularisée par o1 d'OpenAI fin 2024, marque un tournant : les deux acteurs ont convergé vers la même architecture de base, rendant les différenciations de plus en plus fines et contextuelles. La prochaine étape sera probablement de voir qui parvient à maintenir ce niveau de performance tout en réduisant les coûts d'inférence, condition sine qua non pour une adoption à grande échelle.

UELes développeurs et entreprises en France et en UE devront arbitrer entre GPT-5.5 pour les workflows agentiques et Claude Opus 4.7 pour l'analyse approfondie lors de leurs décisions d'infrastructure IA.

💬 Ce que je retiens, c'est pas le score global, c'est la ligne de partage qui s'impose : GPT-5.5 pour orchestrer des agents autonomes, Opus 4.7 pour les tâches où tu as besoin que le modèle réfléchisse vraiment. C'est utile pour choisir son stack, mais le sous-texte de tout ça, c'est que les deux convergent sur les tokens de raisonnement, et ça coûte cher. Reste à voir qui réussit à tenir ce niveau de performance tout en faisant baisser l'addition.

LLMsOpinion
1 source
Poolside AI présente Laguna XS.2 et M.1, des modèles de codage à base d'agents atteignant 68,2 % et 72,5 % sur SWE-bench Verified
4MarkTechPost 

Poolside AI présente Laguna XS.2 et M.1, des modèles de codage à base d'agents atteignant 68,2 % et 72,5 % sur SWE-bench Verified

Poolside AI a dévoilé mardi les deux premiers modèles de sa famille Laguna : Laguna M.1 et Laguna XS.2, accompagnés d'un agent de codage en ligne de commande baptisé "pool". Laguna M.1 est un modèle de type Mixture-of-Experts (MoE) totalisant 225 milliards de paramètres, dont seulement 23 milliards activés à chaque inférence, entraîné sur 30 000 milliards de tokens à l'aide de 6 144 GPU NVIDIA Hopper interconnectés. Il atteint 72,5 % sur le benchmark SWE-bench Verified, référence du secteur pour évaluer la résolution autonome de bugs réels. Laguna XS.2, le premier modèle en accès ouvert de Poolside, est beaucoup plus compact : 33 milliards de paramètres au total, seulement 3 milliards activés par token. Il score 68,2 % sur SWE-bench Verified et peut tourner en local sur un Mac équipé de 36 Go de RAM via Ollama, ce qui est rare pour ce niveau de performance. Une version de base pour le fine-tuning, XS.2-base, sera publiée prochainement. Ces résultats positionnent Poolside parmi les acteurs sérieux du codage agentique, un segment en pleine effervescence où l'objectif est de faire résoudre des tâches de développement complexes et longues par des modèles de manière autonome. La capacité de XS.2 à fonctionner en local change la donne pour les développeurs soucieux de confidentialité ou travaillant sans accès cloud stable : avec une fenêtre de contexte de 131 072 tokens et un support natif du raisonnement intercalé entre les appels d'outils, le modèle est conçu pour des workflows réels de programmation sur plusieurs heures. Le fait que Laguna XS.2 soit open-weight le rend aussi accessible aux équipes qui souhaitent l'adapter à leurs propres bases de code, sans dépendre d'une API propriétaire. Poolside AI, fondée en 2023 par des vétérans de DeepMind et du monde de la recherche, a levé plus de 500 millions de dollars avec la conviction que l'IA spécialisée dans le code nécessite une infrastructure d'entraînement entièrement repensée. Pour Laguna, l'entreprise a développé en interne son pipeline de données, son framework d'entraînement (Titan) et une infrastructure de reinforcement learning agentique. L'une des innovations les plus notables est "AutoMixer", un système qui entraîne simultanément environ 60 modèles-proxy sur des mélanges de données différents pour optimiser automatiquement la composition du jeu d'entraînement, plutôt que de s'appuyer sur des heuristiques manuelles. Cette approche, inspirée de travaux comme RegMix ou OLMix, aurait permis de doubler la diversité effective des données tout en préservant l'équilibre entre code, mathématiques et raisonnement général. La prochaine étape pour Poolside sera probablement d'élargir la famille Laguna et d'affiner son agent "pool" pour concurrencer directement des outils comme Claude Code ou Cursor sur le marché des assistants de développement autonomes.

UELaguna XS.2 étant open-weight et exécutable en local via Ollama, les équipes européennes soucieuses de souveraineté des données peuvent l'adopter sans dépendre d'une API cloud américaine.

💬 68,2 % sur SWE-bench avec un modèle qui tourne sur Mac, c'est pas rien. Ce qui change vraiment la donne, c'est le côté open-weight : on peut l'adapter à sa propre base de code, sans dépendre d'une API tierce, et ça c'est rare pour ce niveau de performance. Reste à voir si l'agent "pool" suit.

LLMsActu
1 source