Aller au contenu principal

Dossier GPT-5.5

26 articles

GPT-5.5 (nom interne « Spud »), modèle agentique d'OpenAI publié en avril 2026 : benchmarks Terminal-Bench, infra NVIDIA, super-app Codex.

GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?
1Le Big Data LLMsOpinion

GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?

Le 24 avril 2026, OpenAI a lancé GPT-5.5 tandis que DeepSeek publiait son modèle V4 le lendemain, créant une confrontation directe entre les deux architectures les plus attendues de l'année. GPT-5.5 positionne OpenAI dans une logique d'agent autonome : le modèle peut gérer des tâches multi-étapes, planifier ses actions, utiliser des outils externes et avancer sans supervision constante. Ses quatre domaines de prédilection sont le codage agentique, l'interaction avec les systèmes informatiques, les tâches de bureau et la recherche scientifique. Sur le benchmark du codage agentique, il atteint 82,7 % de précision. De son côté, DeepSeek V4 se décline en deux versions : la Pro, avec 49 milliards de paramètres actifs et 1,6 billion de paramètres au total, et la Flash, plus légère à 13 milliards de paramètres actifs sur 284 milliards au total. Le modèle est open-source, intègre une fenêtre de contexte d'un million de tokens, et s'interface nativement avec des environnements comme Claude Code d'Anthropic. La confrontation entre ces deux modèles dessine une séparation nette selon les usages. GPT-5.5 domine sur les tâches qui exigent enchaînement logique, planification et autonomie prolongée, notamment dans les workflows en ligne de commande multi-étapes. DeepSeek V4, avec un score autour de 67,9 % sur le même benchmark, marque un écart de près de 15 points mais compense par une efficience économique et énergétique nettement supérieure. Pour les développeurs et entreprises qui cherchent à déployer des agents à grande échelle sans coûts prohibitifs, DeepSeek V4 Flash représente une option sérieuse. Cette bifurcation change concrètement les décisions d'architecture pour les équipes d'ingénierie : choisir entre puissance brute et rapport performance/coût devient un arbitrage stratégique, pas seulement technique. Ce duel s'inscrit dans une course à l'autonomie qui redéfinit le marché des LLM depuis mi-2025, quand OpenAI a commencé à pivoter vers les agents avec GPT-5 puis GPT-5.4. DeepSeek, laboratoire chinois soutenu par High-Flyer Capital, a déjà démontré sa capacité à bousculer les références du secteur début 2025 avec DeepSeek R1, qui avait provoqué une chute temporaire des valeurs tech américaines. Avec V4, il franchit une nouvelle étape en s'ancrant dans les outils des développeurs occidentaux, brouillant la frontière géopolitique que certains tentaient de tracer entre IA américaine et IA chinoise. Les prochaines semaines de benchmark indépendant seront déterminantes : si DeepSeek V4 Pro confirme ses performances sur les tâches d'inférence complexe, OpenAI pourrait se retrouver contraint d'accélérer la sortie de GPT-6 pour maintenir sa position de référence incontestée.

UELes équipes d'ingénierie européennes font face à un arbitrage stratégique immédiat entre puissance brute et rapport performance/coût pour leurs déploiements d'agents IA autonomes à grande échelle.

1 source
DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5
2VentureBeat AI 

DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5

DeepSeek, la startup chinoise d'intelligence artificielle issue du fonds de trading quantitatif High-Flyer Capital Management, a publié DeepSeek-V4, un modèle de langage aux capacités proches des meilleurs systèmes mondiaux. Avec 1 600 milliards de paramètres organisés selon une architecture Mixture-of-Experts (MoE), ce modèle est disponible gratuitement sous licence MIT commercialement permissive, sur la plateforme Hugging Face et via l'API de DeepSeek. Son tarif d'accès : 1,74 dollar par million de tokens en entrée et 3,48 dollars par million en sortie, soit environ 5,22 dollars pour une utilisation combinée standard. Avec les entrées mises en cache, ce coût descend à 3,63 dollars. À titre de comparaison, GPT-5.5 d'OpenAI coûte 35 dollars pour la même transaction, et Claude Opus 4.7 d'Anthropic 30 dollars. Une version allégée, DeepSeek-V4-Flash, est proposée à seulement 0,42 dollar combiné, au prix d'une baisse de performance. Deli Chen, chercheur chez DeepSeek, a décrit cette sortie sur X comme "un travail d'amour", réalisé 484 jours après le lancement du V3, avec cette formule : "L'AGI appartient à tout le monde." L'impact économique est immédiat et brutal pour les acteurs américains du secteur. DeepSeek-V4-Pro coûte environ six fois moins cher que Claude Opus 4.7 et sept fois moins que GPT-5.5 en conditions normales, et jusqu'à dix fois moins avec les entrées en cache. La version Flash, elle, revient à moins de 1 % du tarif des modèles premium américains. Pour les entreprises traitant de gros volumes de requêtes, cette différence de coûts transforme radicalement le calcul de rentabilité : des tâches d'automatisation jugées trop onéreuses avec les modèles fermés américains deviennent soudainement viables. Développeurs et directions techniques sont contraints de réévaluer leurs choix d'infrastructure, et les fournisseurs positionnés sur le haut de gamme voient leur argument tarifaire sérieusement fragilisé. Ce lancement s'inscrit dans la continuité du "moment DeepSeek" de janvier 2025, quand le modèle R1 avait stupéfait la communauté internationale en rivalisant avec les meilleurs systèmes propriétaires américains à une fraction de leur coût de développement. Depuis, la startup avait publié plusieurs mises à jour de ses séries R1 et V3, mais la communauté attendait un successeur de grande envergure. Ce DeepSeek-V4 est d'ores et déjà qualifié de "deuxième moment DeepSeek", et il ravive les débats sur la pérennité commerciale des modèles fermés face aux alternatives open source chinoises. Il soulève également des questions sur la capacité de DeepSeek à maintenir cette trajectoire malgré les restrictions américaines sur l'exportation de puces haut de gamme, contraintes que l'entreprise semble contourner avec une efficacité croissante grâce à des optimisations architecturales poussées.

UEL'écart de prix, jusqu'à six fois inférieur aux modèles premium américains, permet aux entreprises européennes de rentabiliser des projets d'automatisation IA jusqu'ici jugés trop coûteux.

💬 Six fois moins cher qu'Opus 4.7, performances comparables, licence MIT. C'est exactement le scénario que les équipes produit chez OpenAI et Anthropic essayaient de ne pas avoir à gérer, et il arrive quand même. "L'AGI appartient à tout le monde", dit DeepSeek, bon, sur le papier c'est beau, mais le vrai truc c'est que des automatisations qu'on refusait de budgéter il y a six mois deviennent rentables dès ce soir.

LLMsOpinion
1 source
GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater
3Le Big Data 

GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater

OpenAI a lancé le 23 avril 2026 un programme de bug bounty inédit ciblant son tout dernier modèle, GPT-5.5. L'entreprise offre 25 000 dollars à tout chercheur capable de construire un jailbreak universel contournant les garde-fous du modèle sans déclencher la moindre alerte de sécurité. Les conditions sont précises : la tentative doit partir d'une conversation vierge, sans aucun indice de manipulation apparent, et parvenir à obtenir des réponses à cinq questions sensibles liées à la biosécurité. Le test est limité à la version de GPT-5.5 intégrée à Codex Desktop. Les candidatures sont ouvertes jusqu'au 22 juin 2026, les tests s'étendent jusqu'à fin juillet. Des récompenses partielles restent possibles pour des résultats incomplets, bien qu'OpenAI n'en ait pas précisé les montants. Ce programme intervient dans un contexte particulier : GPT-5.5 atteint le niveau "High" dans le Preparedness Framework interne d'OpenAI, une classification réservée aux modèles jugés suffisamment puissants pour représenter un risque sérieux dans des domaines sensibles comme la cybersécurité et la biologie. En exposant volontairement son modèle à des attaquants qualifiés dans un cadre contrôlé, OpenAI cherche à identifier des failles réelles avant qu'elles ne soient exploitées à des fins malveillantes. Pour les entreprises qui envisagent de déployer des modèles génératifs dans des environnements critiques, les résultats de ce programme auront une valeur directe : ils détermineront la robustesse effective des barrières de sécurité et orienteront les prochaines mises à jour du système. Cette stratégie de "défense par l'attaque" s'inscrit dans une tendance plus large de l'industrie de l'IA, où les grands laboratoires multiplient les red teams, audits indépendants et programmes de divulgation responsable pour légitimer leurs déploiements. OpenAI fait face à une pression croissante de la part des régulateurs, des gouvernements et des acteurs de la biosécurité, inquiets de voir des modèles très capables abaisser la barrière d'accès à des connaissances dangereuses. En institutionnalisant la recherche offensive via un bounty public, l'entreprise tente de construire une forme de résilience collective tout en démontrant une transparence de façade. La question qui reste ouverte est celle de la publication des résultats : si une faille est trouvée, jusqu'où OpenAI acceptera-t-elle de dévoiler sa nature exacte, et dans quels délais corrigera-t-elle son modèle avant que d'autres ne découvrent la même vulnérabilité de leur côté ?

UELes chercheurs et entreprises européens peuvent participer au programme de bounty jusqu'au 22 juin 2026, et les résultats orienteront l'évaluation de la robustesse des modèles déployés dans des environnements critiques, directement pertinent dans le cadre des obligations de sécurité de l'AI Act.

SécuritéOpinion
1 source
GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?
4Le Big Data 

GPT-5.5 vs Claude Opus 4.7 : quelle est vraiment l’IA la plus puissante ?

OpenAI et Anthropic ont tous deux lancé leurs nouveaux modèles phares à quelques semaines d'intervalle : GPT-5.5 et Claude Opus 4.7. Sur l'Artificial Analysis Intelligence Index, qui agrège les performances sur un large éventail de tâches, GPT-5.5 s'impose avec un score de 60 contre 57 pour Claude Opus 4.7, le plaçant en tête du classement mondial toutes catégories confondues. Mais les benchmarks spécialisés racontent une histoire différente : sur le GPQA Diamond, un test composé de questions de niveau doctorat en sciences dures, Claude Opus 4.7 obtient 94,2 % contre 93,6 % pour GPT-5.5. Sur l'Humanity's Last Exam, conçu pour résister à la mémorisation et testant le raisonnement interdisciplinaire pointu, l'avantage d'Anthropic se creuse davantage : 46,9 % pour Opus 4.7 contre 41,4 % pour GPT-5.5 sans outils. Les deux modèles s'appuient sur des tokens de raisonnement invisibles qui améliorent leurs capacités mais les rendent plus lents et sensiblement plus chers à l'usage. L'écart entre les deux modèles révèle deux profils d'excellence distincts qui auront des conséquences concrètes sur les choix des développeurs et des entreprises. GPT-5.5 domine sur les capacités agentiques, utilisation d'un terminal, navigation web autonome, cybersécurité offensive, ce qui en fait l'outil de référence pour l'automatisation et les workflows qui nécessitent qu'une IA "fasse des choses" de façon autonome. Claude Opus 4.7 s'impose en revanche sur les tâches qui exigent un raisonnement profond, la résolution de problèmes complexes sans réponse évidente, et la stratégie à long terme. Pour les équipes qui construisent des agents autonomes, le choix penchera vers OpenAI ; pour celles qui ont besoin d'analyse, de synthèse ou de conseil de haut niveau, Anthropic prend l'avantage. Cette confrontation s'inscrit dans une phase d'accélération sans précédent de la course aux modèles de base. OpenAI et Anthropic se disputent la position de référence auprès des entreprises, des développeurs et des plateformes tierces, sachant que le modèle adopté en infrastructure devient difficile à déloger. L'émergence des tokens de raisonnement comme standard, une technique issue des travaux sur les "chain-of-thought" et popularisée par o1 d'OpenAI fin 2024, marque un tournant : les deux acteurs ont convergé vers la même architecture de base, rendant les différenciations de plus en plus fines et contextuelles. La prochaine étape sera probablement de voir qui parvient à maintenir ce niveau de performance tout en réduisant les coûts d'inférence, condition sine qua non pour une adoption à grande échelle.

UELes développeurs et entreprises en France et en UE devront arbitrer entre GPT-5.5 pour les workflows agentiques et Claude Opus 4.7 pour l'analyse approfondie lors de leurs décisions d'infrastructure IA.

💬 Ce que je retiens, c'est pas le score global, c'est la ligne de partage qui s'impose : GPT-5.5 pour orchestrer des agents autonomes, Opus 4.7 pour les tâches où tu as besoin que le modèle réfléchisse vraiment. C'est utile pour choisir son stack, mais le sous-texte de tout ça, c'est que les deux convergent sur les tokens de raisonnement, et ça coûte cher. Reste à voir qui réussit à tenir ce niveau de performance tout en faisant baisser l'addition.

LLMsOpinion
1 source
The Download : arnaques dopées et IA dans la santé à l'étude
5MIT Technology Review 

The Download : arnaques dopées et IA dans la santé à l'étude

L'intelligence artificielle redessine en profondeur deux fronts critiques de la société numérique : la cybersécurité et la santé. Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont intégré les grands modèles de langage dans leur arsenal, automatisant la rédaction d'e-mails malveillants, le phishing ultraciblé, les deepfakes hyperréalistes et les scans automatisés de vulnérabilités. Résultat : les attaques sont devenues plus rapides, moins coûteuses et accessibles à un nombre croissant d'acteurs. De nombreuses organisations peinent aujourd'hui à absorber le volume de cyberattaques, une situation appelée à s'aggraver à mesure que les outils s'améliorent et se démocratisent. En parallèle, l'IA s'est imposée dans les hôpitaux : elle assiste la prise de notes médicales, analyse les dossiers patients pour identifier ceux nécessitant un suivi, et interprète des radios ou des résultats d'examens. Des études montrent que ces outils produisent des résultats précis, mais la question centrale reste sans réponse : ces technologies améliorent-elles réellement la santé des patients ? Cette double expansion de l'IA soulève des enjeux profonds. Dans le domaine de la cybersécurité, l'industrialisation de la fraude met sous pression non seulement les entreprises, mais aussi les particuliers et les institutions publiques, qui ne disposent pas toujours des ressources pour se défendre à la même vitesse que les attaquants progressent. Dans le secteur médical, l'absence de données solides sur les résultats cliniques réels pose un problème éthique et pratique majeur : des outils sont déployés à large échelle sans que l'on sache encore s'ils font gagner des années de vie ou simplement du temps administratif. C'est une lacune que la communauté médicale et les régulateurs devront combler rapidement. Ces tendances s'inscrivent dans un contexte de reconfigurations majeures du secteur tech. DeepSeek vient de lancer les versions preview de son modèle V4, présenté comme la plateforme open source la plus puissante à ce jour, optimisée pour les puces Huawei et rivalisant selon ses créateurs avec les meilleurs modèles fermés d'OpenAI et DeepMind. OpenAI a de son côté déployé GPT-5.5 à l'ensemble des utilisateurs de ChatGPT malgré des préoccupations en cybersécurité. Meta prévoit de supprimer environ 8 000 postes, soit 10 % de ses effectifs, annonce attendue le 20 mai, pour financer ses investissements en IA. Sur le plan géopolitique, un mémo de la Maison Blanche accuse des entreprises chinoises d'exploitation massive de modèles américains, accusation que Pékin qualifie de "calomnie". L'ère de l'accès gratuit aux IA avancées touche par ailleurs à sa fin, les laboratoires étant sous pression croissante pour rentabiliser leurs investissements colossaux.

UEL'industrialisation des cyberattaques par l'IA expose directement les entreprises et institutions européennes à des menaces croissantes, tandis que le déploiement à grande échelle d'outils IA médicaux sans évaluation clinique rigoureuse appelle une réponse réglementaire urgente de l'UE.

SécuritéActu
1 source
Oubliez GPT-5.5 : DeepSeek-V4 est là et il est terrifiant
6Le Big Data 

Oubliez GPT-5.5 : DeepSeek-V4 est là et il est terrifiant

DeepSeek, la startup chinoise fondée en 2023, a lancé ce 24 avril 2026 une version préliminaire de son nouveau grand modèle de langage, baptisé DeepSeek-V4. Comme ses prédécesseurs, ce modèle est open source et librement téléchargeable. Il se décline en deux variantes : V4-Pro, avec 1,6 billion de paramètres totaux et 49 milliards de paramètres actifs, et V4-Flash, plus léger avec 284 milliards de paramètres totaux et 13 milliards actifs. Selon DeepSeek, la version Pro rivalise avec les meilleurs modèles propriétaires mondiaux en mathématiques et en programmation, et n'est dépassée que par Gemini 3.1-Pro de Google sur les connaissances générales. Les deux versions supportent une fenêtre de contexte d'un million de tokens et ont été optimisées pour fonctionner avec des outils comme Claude Code d'Anthropic. La version Flash, moins puissante, se distingue par sa rapidité et son coût d'API réduit. Ce lancement confirme la capacité de DeepSeek à maintenir une cadence de développement rapide face aux géants américains, tout en restant dans la sphère open source. Pour les développeurs et les entreprises, l'accès à un modèle de cette envergure, modifiable et exécutable localement, représente une alternative crédible aux solutions fermées d'OpenAI ou Google, généralement plus coûteuses. La compétitivité annoncée sur les tâches d'agents intelligents et d'inférence est particulièrement stratégique : ce sont précisément les cas d'usage qui alimentent les déploiements en production dans les entreprises technologiques. Si les benchmarks se confirment dans des conditions réelles, V4 pourrait accélérer l'adoption de modèles open source dans des environnements où la confidentialité des données ou la maîtrise des coûts sont prioritaires. DeepSeek avait fait irruption sur la scène internationale en janvier 2025 avec son modèle de raisonnement R1, développé en moins de deux mois pour un coût revendiqué inférieur à six millions de dollars, un chiffre qui avait ébranlé les certitudes de la Silicon Valley sur la nécessité d'investissements massifs. Ce coup d'éclat avait déclenché des interrogations profondes sur la domination américaine dans l'IA, mais aussi des doutes de la part d'analystes sceptiques quant aux ressources réellement mobilisées. Parallèlement, plusieurs pays avaient ouvert des enquêtes sur le traitement des données personnelles par les services de DeepSeek. Avec V4, la startup s'inscrit dans une continuité stratégique claire : publier rapidement, rester open source, et afficher des performances comparables aux modèles fermés les plus avancés. La prochaine étape sera de voir si ces performances tiennent à l'épreuve d'évaluations indépendantes, notamment face à GPT-5.5 qu'OpenAI vient de déployer.

UELa nature open source de DeepSeek-V4 offre aux entreprises et institutions européennes une alternative déployable localement, réduisant la dépendance aux modèles fermés américains et facilitant la conformité RGPD grâce au traitement des données en interne.

LLMsOpinion
1 source
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois
7Next INpact 

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

OpenAI a lancé cette nuit GPT-5.5, nouvelle version de son grand modèle de langage, moins de deux mois après GPT-5.4 sorti le 5 mars. Le modèle cible explicitement les tâches complexes et mal structurées : OpenAI promet qu'on peut lui confier une requête à plusieurs volets, sans organisation précise, et lui faire confiance pour planifier, utiliser des outils, vérifier son propre travail et aller jusqu'au bout. Les progrès les plus marqués concernent le code agentique, l'utilisation de l'ordinateur et les premières étapes de la recherche scientifique. Sur Terminal-Bench, benchmark mesurant la capacité à enchaîner des actions et corriger des erreurs, GPT-5.5 creuse nettement l'écart avec son prédécesseur et ses concurrents. Les gains restent plus modérés sur GDPval et OSWorld. Côté prix, GPT-5.5 double les tarifs de GPT-5.4 en atteignant environ 5 dollars en entrée et 30 dollars en sortie par million de tokens, mais OpenAI avance que le modèle compense en utilisant moins de tokens pour des tâches équivalentes. Il est déjà disponible pour les abonnés payants Plus, Pro, Business et Enterprise, ainsi que dans Codex, avec l'accès API annoncé prochainement. Cette cadence de sortie illustre la pression concurrentielle extrême dans laquelle évolue OpenAI. Chaque mise à jour vise à maintenir un écart de performance sur Anthropic, Google et les modèles open source, dans un segment où les entreprises comparent désormais les coûts à la tâche accomplie plutôt qu'au token brut. L'argument d'efficacité de GPT-5.5, s'il se confirme en production, peut justifier la hausse tarifaire pour les usages professionnels intensifs, notamment le développement logiciel assisté et l'automatisation de workflows complexes. En parallèle, OpenAI a présenté Privacy Filter, un modèle inédit conçu pour détecter et supprimer des données personnelles dans du texte. Sa particularité : il peut tourner entièrement en local, sans envoyer les données vers un serveur, ce qui le rend utilisable sur des documents sensibles. Avec seulement 1,5 milliard de paramètres dont 50 millions actifs, il reste léger tout en traitant des contextes jusqu'à 128 000 tokens. Il couvre huit catégories : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets comme les mots de passe ou clés API. OpenAI est transparent sur ses limites : Privacy Filter n'est pas un outil d'anonymisation complet et exige une validation humaine dans les cas sensibles. Cette annonce s'inscrit dans un contexte réglementaire croissant autour de la protection des données, notamment en Europe, où le RGPD impose des contraintes strictes sur le traitement des informations personnelles par des systèmes d'IA.

UELe Privacy Filter, conçu pour fonctionner en local sans transfert de données, constitue une réponse directe aux exigences du RGPD et intéresse particulièrement les entreprises européennes traitant des données personnelles sensibles.

LLMsOpinion
1 source
GPT-5.5 pulvérise les benchmarks : une vraie boucherie pour la concurrence !
8Le Big Data 

GPT-5.5 pulvérise les benchmarks : une vraie boucherie pour la concurrence !

OpenAI a lancé GPT-5.5 le 23 mars 2026, soit à peine six semaines après GPT-5.4, confirmant un rythme de déploiement qui tient en haleine toute l'industrie. Le nouveau modèle se distingue sur plusieurs fronts : écriture et correction de code, recherche en ligne, analyse de données, création de documents et de feuilles de calcul, mais aussi interaction directe avec les logiciels et enchaînement d'outils pour mener une tâche à son terme. En développement front-end, il repère et corrige bugs visuels et incohérences d'interface avec une fluidité remarquée. Sur les benchmarks, les chiffres sont nets : GPT-5.5 atteint 82,7 % sur Terminal-Bench 2.0, qui mesure la capacité à exécuter des tâches réelles dans un terminal comme le ferait un développeur, dépassant notamment Claude Opus 4.7 d'Anthropic. Il affiche 58,6 % sur SWE-Bench Pro, dédié à l'ingénierie logicielle, et enregistre un gain de 3,7 points sur HealthBench Professional par rapport à son prédécesseur. En matière de vitesse, les tâches complexes de programmation s'exécutent jusqu'à 40 % plus rapidement qu'avec GPT-5.4. Au total, le modèle domine 14 benchmarks commerciaux, avec des scores particulièrement élevés en économie via GDPval à 84,9 % et en cybersécurité via CyberGym à 81,8 %. Ces résultats positionnent GPT-5.5 comme le modèle de référence actuel pour les usages professionnels intensifs, notamment en développement logiciel et en automatisation de tâches complexes. Un gain de vitesse de 40 % sur la programmation n'est pas anodin : pour les équipes qui utilisent ces modèles en production, cela se traduit directement en économies de temps et en réduction des coûts d'inférence. La domination sur Terminal-Bench 2.0 est particulièrement significative, ce test étant conçu pour simuler des conditions proches du travail réel d'un ingénieur, là où d'autres benchmarks restent plus académiques. Le léger retard sur SWE-Bench Pro face à certains concurrents sur le raisonnement pur nuance néanmoins le tableau et rappelle qu'aucun modèle ne rafle encore tous les usages. Cette sortie s'inscrit dans une période de compétition intense entre OpenAI, Anthropic et Google, où les cycles de mise à jour se sont drastiquement raccourcis. Six semaines entre deux versions majeures illustre une course à l'armement qui ne laisse plus de répit aux équipes concurrentes. OpenAI consolide ainsi sa position dominante en ciblant précisément les cas d'usage professionnels et les pipelines d'automatisation, là où la vitesse et la fiabilité d'exécution comptent autant que le raisonnement pur. La concurrence dispose toutefois de modèles plus spécialisés qui conservent l'avantage sur certains segments, et les prochaines réponses d'Anthropic et Google sont attendues dans les semaines à venir.

UELes équipes tech européennes utilisant ces modèles pour le développement logiciel et l'automatisation bénéficieront d'un gain de vitesse de 40 % sur les tâches complexes de programmation.

LLMsOpinion
1 source
GPT-5.5 et la super-application OpenAI Codex
9Latent Space 

GPT-5.5 et la super-application OpenAI Codex

OpenAI a lancé GPT-5.5 le 22 avril 2026, une semaine après la sortie de Claude Opus 4.7 par Anthropic. Le modèle est présenté comme "une nouvelle classe d'intelligence pour le travail réel" et déployé progressivement sur ChatGPT et Codex, l'accès API étant temporairement limité en attendant des vérifications de sécurité supplémentaires. Les benchmarks publiés sont impressionnants : 82,7% sur Terminal-Bench 2.0, 58,6% sur SWE-Bench Pro, 84,9% sur GDPval, 78,7% sur OSWorld-Verified et 84,4% sur BrowseComp. Le tarif API est fixé à 5$/30$ par million de tokens en entrée/sortie pour la version standard, et 30$/180$ pour la version Pro. Selon Artificial Analysis, GPT-5.5 en configuration medium atteint le même niveau que Claude Opus 4.7 au maximum sur leur Intelligence Index, mais à un quart du coût : environ 1 200 dollars contre 4 800. La fenêtre de contexte atteint 1 million de tokens en API, et Sam Altman souligne que le modèle consomme moins de tokens par tâche que son prédécesseur GPT-5.4. Ce lancement ne se résume pas à une simple mise à jour de modèle. GPT-5.5 marque un pivot stratégique d'OpenAI vers l'inférence agentique longue durée et l'efficacité économique, deux dimensions qui comptent davantage pour les entreprises que les scores bruts sur benchmarks académiques. La capacité à exécuter des tâches complexes avec moins d'interventions humaines change concrètement la proposition de valeur pour les développeurs et les équipes techniques. En parallèle, OpenAI a profondément étendu Codex : contrôle du navigateur, intégration avec Google Sheets, Slides, Docs et PDFs, dictée à l'échelle du système d'exploitation, et un mode de revue automatique reposant sur un agent secondaire dit "gardien" qui réduit le nombre de validations nécessaires sur les tâches longues. Codex n'est plus un outil de coding assisté : il devient un agent capable de naviguer dans des interfaces web, capturer des captures d'écran, itérer jusqu'à complétion, et traiter des flux de travail qui couvrent l'assurance qualité, la bureautique et la construction d'applications. Ce lancement s'inscrit dans une course frontale entre OpenAI, Anthropic et Google, dont Gemini 3.1 Pro Preview atteint un niveau comparable à GPT-5.5 à environ 900 dollars selon Artificial Analysis. OpenAI a co-conçu le modèle avec les systèmes NVIDIA GB200/300, et affirme que GPT-5.5 a contribué à améliorer sa propre infrastructure d'inférence, une affirmation qui illustre la direction que prend la compagnie. Sam Altman positionne désormais explicitement OpenAI comme une "entreprise d'inférence IA", signalant que la compétition ne se joue plus seulement sur la qualité des modèles mais sur leur coût d'exploitation à l'échelle. La décision d'absorber Prism et de faire de Codex la base d'une stratégie de superapp unifiée suggère qu'OpenAI cherche à verrouiller les workflows professionnels dans son écosystème, bien au-delà du simple chat.

UELes développeurs et entreprises européens bénéficient d'un modèle agentique de niveau SOTA à coût sensiblement réduit, ce qui modifie concrètement les arbitrages de déploiement IA à grande échelle sur le marché européen.

💬 Le ratio coût/perf, c'est là que ça se joue. GPT-5.5 medium au niveau d'Opus 4.7 max pour un quart du prix, les équipes qui hésitaient vont trancher vite. Et ce pivot vers une superapp avec Codex en moteur, c'est plus ambitieux qu'il n'y paraît : si l'agent gardien tient vraiment sur des tâches longues, OpenAI verrouille les workflows pro bien plus efficacement qu'avec n'importe quel score sur un benchmark.

LLMsOpinion
1 source
GPT-5.5, un signal pour l'avenir
10One Useful Thing 

GPT-5.5, un signal pour l'avenir

OpenAI a déployé GPT-5.5, une nouvelle famille de modèles dont la version la plus puissante, GPT-5.5 Pro, n'est accessible que via le site chatgpt.com. Le chercheur Ethan Mollick, qui a eu un accès anticipé au modèle, a soumis une épreuve de programmation à plusieurs IA concurrentes : construire une simulation 3D à génération procédurale montrant l'évolution d'une ville portuaire de 3000 avant J.-C. jusqu'à 3000 après J.-C., avec contrôle utilisateur et rendu visuel soigné. Les modèles testés allaient de o3 d'OpenAI, lancé il y a un an, jusqu'au meilleur modèle open weights actuel, Kimi K2.6. GPT-5.5 Pro est le seul à avoir modélisé une véritable évolution urbaine au lieu de simplement remplacer des bâtiments au fil du temps. Le gain de vitesse est aussi notable : là où GPT-5.4 Pro avait mis 33 minutes pour accomplir la tâche, GPT-5.5 Pro n'en a requis que 20. Au-delà des performances brutes, cette version marque un cap dans la capacité des IA à produire des résultats complexes et cohérents sur des tâches ambitieuses de développement. Pour les développeurs et les professionnels qui utilisent l'IA comme outil de travail, la différence n'est plus seulement quantitative mais qualitative : GPT-5.5 Pro ne se contente pas de générer du code fonctionnel, il comprend l'intention derrière la demande et produit un système structuré et évolutif. OpenAI progresse également sur son application desktop Codex, qui s'aligne désormais sur la popularité de Claude Code. Enfin, le nouveau modèle d'image maison, parfois désigné GPT-imagegen-2, franchit une limite longtemps problématique : il génère du texte lisible et de haute qualité intégré aux images, ce qui ouvre des usages nouveaux en visualisation, communication et création de contenu. Cette sortie s'inscrit dans une course à l'amélioration continue qui, contrairement aux prédictions de plateau, ne montre aucun signe de ralentissement. Mollick utilise une grille d'analyse en trois dimensions, modèles, applications, outils, pour illustrer que la compétition entre OpenAI, Anthropic et Google ne se joue plus uniquement sur les benchmarks des modèles eux-mêmes, mais aussi sur l'écosystème qui les entoure. Les applications desktop comme Claude Code ou Codex deviennent le vrai terrain de bataille pour les usages professionnels. La frontière des capacités reste cependant "en dents de scie" selon l'expression de Mollick : certaines tâches longtemps difficiles sont aujourd'hui triviales, tandis que d'autres restent inégalement maîtrisées selon les modèles et les contextes.

UELes développeurs et professionnels européens ont accès direct à cette nouvelle génération de modèles, avec des gains qualitatifs significatifs pour les tâches complexes de développement logiciel.

LLMsOpinion
1 source
Le GPT-5.5 d'OpenAI propulse Codex sur l'infrastructure NVIDIA, déjà utilisée en interne
11NVIDIA AI Blog 

Le GPT-5.5 d'OpenAI propulse Codex sur l'infrastructure NVIDIA, déjà utilisée en interne

OpenAI a déployé GPT-5.5, son dernier modèle frontier, au coeur de Codex, son application de codage agentique. Ce modèle tourne sur les systèmes rack-scale NVIDIA GB200 NVL72, capables de délivrer un coût 35 fois inférieur par million de tokens et un débit 50 fois supérieur par seconde et par mégawatt par rapport à la génération précédente. Plus de 10 000 employés de NVIDIA, répartis dans tous les départements, ingénierie, juridique, marketing, finance, RH, ventes et opérations, utilisent déjà Codex propulsé par GPT-5.5 depuis quelques semaines. Les résultats sont concrets et mesurables : des cycles de débogage qui prenaient des jours se bouclent désormais en quelques heures, et des expérimentations qui nécessitaient des semaines aboutissent en une nuit sur des bases de code complexes et multi-fichiers. Des équipes livrent des fonctionnalités complètes à partir de simples instructions en langage naturel. L'impact dépasse le simple gain de productivité individuel. En rendant l'inférence de modèles frontier économiquement viable à l'échelle de l'entreprise, cette infrastructure change la donne pour toute organisation souhaitant intégrer des agents IA dans ses processus métier. Pour sécuriser ce déploiement, NVIDIA a doté chaque employé d'une machine virtuelle cloud dédiée connectée via SSH, dans laquelle l'agent Codex opère en sandbox avec une politique de rétention zéro donnée. Les agents n'accèdent aux systèmes de production qu'en lecture seule, garantissant auditabilité complète sans exposition des données internes. Jensen Huang, PDG et fondateur de NVIDIA, a incité l'ensemble de ses équipes à adopter l'outil dans un email interne : "Passons à la vitesse de la lumière. Bienvenue dans l'ère de l'IA." Ce lancement s'inscrit dans plus de dix ans de collaboration entre NVIDIA et OpenAI, une relation qui remonte à 2016 lorsque Jensen Huang avait livré en mains propres le premier supercalculateur DGX-1 au siège d'OpenAI à San Francisco. Depuis, les deux entreprises co-développent l'ensemble de la pile IA : NVIDIA était partenaire dès le premier jour pour le lancement du modèle open-weight gpt-oss d'OpenAI, en optimisant les poids du modèle pour TensorRT-LLM et des frameworks comme vLLM et Ollama. OpenAI s'est engagé à déployer plus de 10 gigawatts de systèmes NVIDIA pour sa prochaine infrastructure, mobilisant des millions de GPU pour l'entraînement et l'inférence dans les années à venir. Les deux sociétés sont également partenaires en co-conception matérielle, OpenAI contribuant au roadmap hardware de NVIDIA en échange d'un accès anticipé aux nouvelles architectures, ce qui a abouti à la mise en service commune du premier cluster de 100 000 GPU GB200 NVL72.

LLMsActu
1 source
Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses
12Le Big Data 

Les rumeurs disaient vrai : OpenAI lâche GPT-5.5, et ça change pas mal de choses

OpenAI a officiellement lancé GPT-5.5 le 23 avril 2026, confirmant ainsi les rumeurs qui circulaient depuis plusieurs jours. Sam Altman a annoncé le modèle directement sur X, déclarant simplement qu'il "l'apprécie beaucoup", une formulation sobre pour un lancement que l'entreprise présente comme un véritable saut technologique. Le modèle est immédiatement disponible dans ChatGPT pour les abonnés Plus, Pro et Business sous la dénomination GPT-5.5 Thinking, avec une version GPT-5.5 Pro réservée aux traitements de données massifs exigeant une précision maximale. Les développeurs accédant via Codex bénéficient quant à eux d'une fenêtre de contexte de 400 000 tokens, suffisante pour ingérer des projets entiers en une seule passe. Ce qui distingue fondamentalement GPT-5.5 de ses prédécesseurs, c'est son autonomie opérationnelle. Là où les modèles précédents attendaient une instruction à chaque étape, celui-ci est conçu pour piloter des tâches complexes de bout en bout, en analysant, planifiant et utilisant les logiciels disponibles sans intervention humaine continue. En développement logiciel, cela se traduit concrètement par une capacité à résoudre des projets GitHub entiers en une seule passe, à déboguer de manière autonome en identifiant l'origine d'une faille là où un développeur passerait plusieurs heures, et à anticiper les effets de bord sur le reste du système. L'enthousiasme dans l'industrie est tel qu'un ingénieur chez NVIDIA a comparé l'idée de perdre l'accès au modèle à une amputation physique. Parallèlement, GPT-5.5 maintient une latence comparable à GPT-5.4 tout en consommant moins de tokens pour produire des résultats de meilleure qualité, ce qui améliore directement l'équation coût-performance pour les usages intensifs. Ce lancement s'inscrit dans une course à l'IA générative où chaque acteur cherche à franchir le palier de l'agent autonome, capable d'agir sur un ordinateur plutôt que de simplement répondre à des questions. OpenAI positionnne GPT-5.5 explicitement comme une "nouvelle classe d'intelligence pour le travail réel", ce qui signale un pivot stratégique vers les cas d'usage professionnels et les pipelines agentiques, au détriment du chatbot conversationnel grand public. Google, Anthropic et Meta s'engagent sur le même terrain avec leurs propres modèles capables d'utiliser des outils et d'exécuter des tâches multi-étapes. La disponibilité immédiate dans Codex suggère qu'OpenAI mise sur les développeurs comme vecteur d'adoption prioritaire, une population qui teste vite, publie ses benchmarks et influence ensuite les décisions d'achat des entreprises. La prochaine étape logique sera l'intégration plus profonde dans des environnements d'entreprise, avec des questions de sécurité, de traçabilité et de gouvernance que GPT-5.5 n'adresse pas encore publiquement.

UELes développeurs et entreprises européens utilisant l'API OpenAI via Codex peuvent immédiatement tester les capacités agentiques de GPT-5.5, ce qui soulève des questions de gouvernance et de traçabilité directement pertinentes dans le contexte du règlement européen sur l'IA.

LLMsOpinion
1 source
GPT-5.5 est arrivé et il ne rigole pas : devance légèrement Claude Mythos Preview sur Terminal-Bench 2.0
13VentureBeat AI 

GPT-5.5 est arrivé et il ne rigole pas : devance légèrement Claude Mythos Preview sur Terminal-Bench 2.0

OpenAI a dévoilé GPT-5.5 ce 23 avril 2026, le modèle le plus puissant de l'entreprise à ce jour, connu en interne sous le nom de code "Spud". Présenté lors d'un appel avec des journalistes, le modèle a été décrit par Amelia Glaese, vice-présidente de la recherche chez OpenAI, comme "le modèle le plus solide que nous ayons jamais produit sur le codage, à la fois selon les benchmarks et selon les retours de nos partenaires de confiance". Greg Brockman, cofondateur et président d'OpenAI, a insisté sur sa capacité à travailler de manière autonome : "C'est bien plus intuitif à utiliser. Il peut regarder un problème peu défini et déterminer lui-même ce qui doit se passer ensuite." Sur le plan technique, GPT-5.5 tourne sur les systèmes NVIDIA GB200 et GB300 NVL72, avec des algorithmes heuristiques personnalisés rédigés par l'IA elle-même pour optimiser la répartition des calculs sur les cœurs GPU, ce qui a augmenté la vitesse de génération de tokens de plus de 20%. Le modèle égale la latence par token de son prédécesseur GPT-5.4, tout en offrant un niveau d'intelligence supérieur. GPT-5.4 reste disponible pour les utilisateurs et entreprises à la moitié du coût API du nouveau modèle. Ce qui distingue fondamentalement GPT-5.5 de ses prédécesseurs, c'est son orientation vers la performance dite "agentique" : le modèle est conçu pour gérer des tâches complexes et fragmentées de façon autonome, sans besoin d'instructions pas à pas. Il excelle en codage, en recherche scientifique et en "computer use", c'est-à-dire l'interaction directe avec des systèmes d'exploitation et des logiciels professionnels. Un mode "GPT-5.5 Thinking" a également été introduit dans ChatGPT pour les raisonnements à forts enjeux : il laisse au modèle davantage de temps de calcul interne pour vérifier ses hypothèses avant de répondre. Sur le benchmark interne "Expert-SWE", mesurant des tâches de codage longues dont le temps de complétion médian est de 20 heures pour un humain, GPT-5.5 surpasse GPT-5.4 tout en utilisant significativement moins de tokens. La course aux grands modèles de langage entre OpenAI, Anthropic et Google n'a jamais été aussi serrée. Il y a exactement une semaine, Anthropic avait lancé Claude Opus 4.7, qui avait temporairement pris la tête du classement sur le plus grand nombre de benchmarks tiers. GPT-5.5 reprend aujourd'hui cet avantage sur les modèles publiquement disponibles, et dépasse même Opus 4.7 sur la quasi-totalité des tests de référence. Seul le modèle Claude Mythos Preview d'Anthropic, non disponible au grand public et fortement restreint, résiste encore sur Terminal-Bench 2.0, où il devance GPT-5.5 dans une marge si étroite qu'elle s'apparente à une égalité statistique. Cette dynamique illustre à quel point la frontière technologique entre les trois acteurs dominants s'est réduite, chaque nouveau modèle détrônant le précédent en l'espace de quelques semaines.

UELes développeurs et entreprises français et européens utilisant les API OpenAI pourront évaluer GPT-5.5 pour leurs usages en codage et tâches agentiques, sans impact réglementaire ou institutionnel spécifique à la France ou à l'UE.

💬 Une semaine après Opus 4.7, OpenAI reprend la tête. Le seul modèle qui résiste encore à GPT-5.5, c'est Mythos Preview d'Anthropic, sauf qu'il n'est pas disponible au grand public, donc dans la vraie vie des développeurs, OpenAI est devant. C'est le genre de course où chaque sortie rend la précédente obsolète avant qu'on ait fini de l'évaluer.

LLMsActu
1 source
OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation
14The Verge AI 

OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation

OpenAI a annoncé GPT-5.5, son nouveau modèle de langage, présenté comme "le plus intelligent et le plus intuitif à utiliser" jamais développé par la société. Ce lancement intervient à peine un mois après la sortie de GPT-5.4, illustrant un rythme de publication particulièrement soutenu. Selon OpenAI, GPT-5.5 se distingue par ses capacités améliorées en écriture et débogage de code, en recherche en ligne, en création de documents et de feuilles de calcul, ainsi que par sa capacité à opérer de manière coordonnée à travers différents outils. L'entreprise décrit ce modèle comme "la prochaine étape vers une nouvelle façon de travailler sur ordinateur". La principale avancée de GPT-5.5 réside dans sa capacité à prendre en charge des tâches complexes et multidimensionnelles de manière autonome. L'utilisateur peut confier une mission floue ou fragmentée au modèle, qui planifie lui-même les étapes, utilise les outils appropriés, vérifie son propre travail et gère les ambiguïtés sans supervision constante. Ce changement de paradigme vise directement les professionnels qui passent aujourd'hui un temps considérable à orchestrer manuellement leurs workflows numériques. Cette annonce s'inscrit dans la course effrénée aux modèles dits "agentiques", capables d'agir de façon autonome plutôt que de simplement répondre à des questions. OpenAI fait face à une concurrence croissante d'Anthropic avec Claude, de Google avec Gemini, et de plusieurs acteurs open source. La cadence de publication accélérée, avec deux versions majeures en un mois, suggère une pression concurrentielle intense et une volonté de maintenir la position dominante d'OpenAI sur le marché des assistants IA professionnels.

UELes entreprises et professionnels européens pourront exploiter les nouvelles capacités agentiques de GPT-5.5, mais aucun impact réglementaire ou institutionnel spécifique à la France ou à l'UE n'est mentionné.

💬 GPT-5.4 avait même pas eu le temps de refroidir. Ce qui m'intéresse dans ce 5.5, c'est l'angle autonomie : confier une tâche floue et pas avoir à orchestrer chaque étape à la main. Bon, sur le papier c'est très bien, mais les démos OpenAI sont toujours plus convaincantes que la prod.

LLMsOpinion
1 source
OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute
15Le Big Data 

OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute

Le 22 avril 2026, des utilisateurs de Codex, l'environnement de développement assisté d'OpenAI, ont brièvement aperçu dans un sélecteur de modèles interne des noms inconnus : GPT-5.5, oai-2.1, et plusieurs variantes expérimentales non annoncées. L'accès a disparu en quelques minutes, mais les captures d'écran avaient déjà circulé sur X et dans les forums de développeurs. La fuite s'est produite dans un contexte particulier : OpenAI menait simultanément un test élargi dans Codex, confirmé par Rohan Varma, ingénieur de l'entreprise, touchant environ 100 % des utilisateurs, tous abonnements confondus, gratuits et payants. Sam Altman, PDG d'OpenAI, n'a pas démenti les spéculations autour d'un lancement imminent. Interrogé par un utilisateur évoquant une sortie possible dès le jeudi suivant, il a répondu par un simple emoji, sans démentir ni confirmer. Au-delà de l'anecdote, les retours techniques des développeurs ayant eu accès au modèle pendant ce court intervalle sont frappants. Plusieurs signalent une résolution de bugs front-end en quelques minutes là où GPT-4o nécessitait plusieurs heures. D'autres notent une meilleure cohérence dans la génération de code HTML et Tailwind CSS. Si ces observations restent parcellaires et non vérifiables à grande échelle, elles alimentent l'idée qu'OpenAI prépare un saut qualitatif significatif, pas seulement une mise à jour incrémentale. Pour l'industrie du développement logiciel assisté par IA, un modèle nettement plus rapide et fiable sur les tâches de code changerait concrètement les flux de travail quotidiens de millions de développeurs. La mise à disposition sur tous les plans tarifaires, si elle se confirme, représenterait également un changement de stratégie commerciale notable par rapport à la segmentation actuelle. Cette fuite s'inscrit dans une séquence d'annonces très dense côté OpenAI : ChatGPT Images 2.0 venait tout juste d'être déployé, renforçant la génération d'images précises directement dans le chat. Le rythme de publication soutenu d'OpenAI répond à une pression concurrentielle extrême. Anthropic a simultanément modifié son offre Claude Code en limitant l'accès pour certains abonnés Pro, tandis que Google, Meta et Mistral multiplient eux aussi les sorties. Dans ce contexte de course aux annonces, la communication ambiguë d'Altman, entre silence et émoji, est devenue une méthode rodée pour entretenir l'attention sans s'engager officiellement. GPT-5.5 pourrait être un modèle intermédiaire entre GPT-5 et une future version majeure, ou simplement un nom de test interne jamais destiné au public. La réponse pourrait venir dans les jours suivants, si OpenAI tient le calendrier informel que son PDG semble avoir laissé entrevoir.

UELa cadence de sorties accélérée d'OpenAI accentue la pression concurrentielle sur les acteurs européens, en particulier Mistral, cité dans l'article comme rival direct dans la course aux annonces de modèles.

LLMsOpinion
1 source
GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.
16Le Big Data 

GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.

OpenAI a déployé discrètement GPT-Image-2 le 21 avril 2026, sans conférence de presse ni annonce officielle de Sam Altman, directement sur les comptes ChatGPT web et mobile de ses utilisateurs dans le monde entier. Ce nouveau moteur de génération d'images représente un saut qualitatif majeur par rapport à son prédécesseur sur trois dimensions précises : le rendu de texte, la gestion de compositions complexes et le photoréalisme. Les premiers tests diffusés sur X montrent des affiches de films avec une typographie parfaitement lisible, des maquettes de Unes du New York Times où chaque colonne et chaque ligne de crédit est nette, et surtout une grille 10x10 contenant 100 objets distincts commençant par la lettre A, chacun correctement nommé et illustré sans aucune erreur de cohérence visuelle ou textuelle. Ces avancées changent concrètement ce que les professionnels peuvent faire avec l'IA générative. Jusqu'ici, intégrer du texte lisible dans une image produite par IA relevait de la loterie : les modèles produisaient systématiquement des caractères déformés, illisibles, mélangés à du pixel noise. Avec GPT-Image-2, cette limite disparaît, ce qui ouvre des usages immédiatement opérationnels pour les designers graphiques, les équipes marketing et les créateurs de contenu : prototypage d'interfaces, création d'affiches, génération de visuels publicitaires avec du texte intégré, le tout en quelques secondes et sans retouche. La gestion de la complexité spatiale, illustrée par la grille 10x10, signifie également que le modèle peut produire des compositions denses et structurées sans perte de cohérence, là où Midjourney et les outils de Google montrent encore des limites significatives dès que la scène se complique. Ce lancement silencieux un mardi s'inscrit dans une stratégie qui n'est pas anodine. Plusieurs observateurs notent que ce type de déploiement discret précède souvent, chez OpenAI, une annonce plus massive dans les jours suivants, des rumeurs évoquent une présentation liée à GPT-5.5 dès jeudi. GPT-Image-2 est par ailleurs le moteur qui alimente déjà l'API Images d'OpenAI depuis quelques semaines, utilisé notamment par des applications tierces comme ChatGPT Canvas et certains outils Canva. Son ouverture progressive au grand public via ChatGPT marque une étape de maturité : le modèle sort du contexte développeur pour entrer dans l'usage quotidien de masse. La concurrence, notamment Midjourney, qui n'a toujours pas de produit web grand public stable, et Adobe Firefly, va devoir répondre à un outil qui combine désormais photoréalisme, précision textuelle et gestion de la complexité dans un seul package accessible à tous.

UELes designers et équipes marketing français et européens peuvent immédiatement intégrer cet outil à leurs workflows pour générer des visuels avec texte lisible intégré, sans retouche manuelle.

💬 Le rendu de texte dans les images IA, c'était le dernier gros problème non résolu. GPT-Image-2 le ferme pour de bon : grille 10x10 sans une seule erreur, affiches avec typo lisible au premier coup d'oeil, c'est le genre de démo qui change ce qu'on peut promettre à un client dès demain matin. Midjourney n'a toujours pas de produit web stable, là ils vont vraiment souffrir.

CréationOpinion
1 source
OpenAI vient de tuer la concurrence : GPT-5.5 a fuité et c’est un monstre
17Le Big Data 

OpenAI vient de tuer la concurrence : GPT-5.5 a fuité et c’est un monstre

Le 19 avril 2026, des dizaines d'utilisateurs de ChatGPT Pro ont signalé une accélération spectaculaire des performances du modèle, sans aucune annonce officielle d'OpenAI. Des tâches complexes en programmation et en conception, qui nécessitaient auparavant entre 15 et 30 minutes, s'exécutent désormais en 1 à 5 minutes. En fouillant l'interface de ChatGPT, plusieurs utilisateurs ont découvert des mentions enfouies dans le code : "GPT-5.5 Pro", les noms de code "crest-pro-alpha" et "Spud", ainsi que l'étiquette "caffeinated by tokens". Des responsables d'OpenAI, dont Eric Mitchell, auraient par ailleurs interrogé en interne la perception de la qualité des réponses, confirmant que des ajustements sont bien en cours en coulisses. Aucune note de version ni communiqué officiel n'a accompagné ces changements. Les benchmarks comparatifs publiés en ligne sont frappants. Sur des tâches de conversion image-vers-code et texte-vers-code, la version mise à jour surpasse à la fois Gemini 3.1 Pro et Claude Opus 4.7 d'Anthropic, en particulier sur la fidélité graphique et la structuration des interfaces générées. Plus révélateur encore : lorsqu'on demande une reproduction "100 % identique" d'une image de référence, le modèle ne se contente pas d'affiner son CSS, il récupère directement les composants visuels présents dans l'image source pour les intégrer au code, une approche qualitativement différente. Les réactions restent cependant partagées : une partie des utilisateurs salue la rapidité et la créativité accrues, tandis que d'autres estiment que la vitesse s'est faite au détriment de la précision globale. Cette mise à jour silencieuse s'inscrit dans une dynamique de concurrence intense entre les grands laboratoires d'IA. OpenAI, Anthropic et Google se livrent depuis plusieurs mois à une surenchère de modèles et de versions, avec des cycles de publication de plus en plus rapides. Le fait qu'OpenAI déploie des changements significatifs sans annonce publique révèle une stratégie de tests en conditions réelles, directement auprès des abonnés Pro à 200 dollars par mois, qui servent en quelque sorte de beta-testeurs involontaires. Si GPT-5.5 venait à être officiellement confirmé, ce serait la deuxième mise à jour majeure de la gamme GPT-5 en quelques semaines, signalant qu'OpenAI cherche à creuser l'écart avec ses concurrents sur le segment premium avant que Anthropic ou Google ne ripostent avec leurs propres nouvelles versions.

UELes abonnés européens à ChatGPT Pro bénéficient des gains de performance non annoncés, mais aucun impact réglementaire ou institutionnel spécifique à la France ou l'UE n'est identifié.

LLMsOpinion
1 source
Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant
18Le Big Data 

Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant

OpenAI prépare un service de cybersécurité avancé, accessible uniquement sur invitation, quelques jours à peine après qu'Anthropic a annoncé Mythos, son propre outil capable, selon l'entreprise, de détecter des vulnérabilités restées invisibles pendant près de trente ans. D'après des informations rapportées par Axios le 9 avril 2026, il ne s'agira pas d'un nouveau modèle à proprement parler, mais d'une offre distincte et structurée, indépendante des autres projets en cours d'OpenAI, notamment Spud. En réalité, la société ne part pas de zéro : elle pilote depuis plusieurs mois un programme confidentiel baptisé "Trusted Access for Cyber", qui permet déjà à certaines organisations sélectionnées d'accéder à des modèles plus permissifs et plus performants dans des contextes de cybersécurité. C'est ce dispositif existant qu'OpenAI entend désormais transformer en produit visible, avec une ambition claire : s'imposer comme acteur de référence dans la cybersécurité de nouvelle génération. L'enjeu dépasse la simple rivalité technologique. Les grandes organisations, qu'il s'agisse d'infrastructures critiques, de gouvernements ou d'entreprises du secteur financier, cherchent activement des outils capables d'automatiser la détection et la correction de failles à une échelle et une vitesse inatteignables par des équipes humaines seules. Un système d'IA capable d'identifier des vulnérabilités critiques en quelques heures plutôt qu'en plusieurs mois représente un changement de paradigme pour la sécurité informatique mondiale. Le modèle d'accès sur invitation, adopté à la fois par Anthropic et par OpenAI, répond à une problématique centrale du secteur : comment exploiter des IA puissantes sans ouvrir la porte à des usages offensifs ou malveillants, notamment pour automatiser des cyberattaques ? Cette séquence révèle aussi une bataille de communication intense entre les deux leaders de l'IA générative. Anthropic a imposé le tempo médiatique avec l'annonce de Mythos et de son projet Glasswing, une initiative présentée comme urgente pour sécuriser les logiciels critiques mondiaux. Mais dans la communauté cybersécurité, certains chercheurs affirment avoir reproduit des résultats comparables avec d'autres modèles existants, sans dispositif aussi exclusif, ce qui relativise la portée des annonces et rappelle que les performances réelles restent difficiles à évaluer sans audits indépendants. OpenAI, perçue comme leader sur les modèles généralistes, ne pouvait pas laisser Anthropic s'installer seule sur ce segment stratégique sans répondre. Si son nouvel outil parvient à démontrer une avance réelle en précision, en vitesse ou en automatisation, il pourrait redéfinir certains standards du secteur. Dans le cas contraire, cette sortie ressemblera davantage à un mouvement défensif de communication qu'à une véritable rupture technologique.

UELes gouvernements et infrastructures critiques européens pourraient bénéficier de ces outils de détection automatisée de vulnérabilités, mais aucun acteur européen n'est directement impliqué dans ces annonces.

SécuritéOpinion
1 source
GPT-5.5 : OpenAI révèle comment l’IA Spud va tout changer dans ChatGPT
19Le Big Data 

GPT-5.5 : OpenAI révèle comment l’IA Spud va tout changer dans ChatGPT

OpenAI s'apprête à lancer GPT-5.5, propulsé par un nouveau modèle de fondation baptisé en interne "Spud". L'annonce a été faite par Greg Brockman, président d'OpenAI, lors d'une intervention dans le podcast Big Technology début avril 2026. Spud n'est pas une mise à jour incrémentale : il s'agit d'une architecture de pré-entraînement entièrement repensée, fruit de deux ans de recherche intensive dans les laboratoires d'OpenAI. Ce modèle de base servira de fondation à toutes les futures déclinaisons de ChatGPT, remplaçant les socles précédents par une infrastructure centralisée pensée pour des capacités de calcul et de raisonnement significativement supérieures. Brockman décrit ce saut comme un "big model smell" — une sensation perceptible que le modèle est notablement plus intelligent et s'adapte mieux aux intentions de l'utilisateur dès la première requête. L'impact concret se situe d'abord dans la qualité des interactions quotidiennes. Là où les utilisateurs actuels de ChatGPT doivent parfois reformuler plusieurs fois une demande pour obtenir la réponse souhaitée, Spud vise à saisir l'intention sans friction. Pour les professionnels qui utilisent l'IA pour de la rédaction, de la programmation ou de la prise de décision, cette réduction du "coût cognitif" de l'interaction représente un gain de productivité direct. Les entreprises intégrant ChatGPT dans leurs workflows pourront s'appuyer sur un modèle plus fiable et moins imprévisible. Au-delà des usages courants, c'est aussi la porte d'entrée vers des applications d'automatisation plus complexes, où la précision de compréhension du langage naturel est critique. Ce lancement s'inscrit dans une course technologique qui s'accélère. OpenAI fait face à une concurrence intense de Google avec Gemini, d'Anthropic avec Claude, et d'acteurs émergents comme xAI. Dans ce contexte, Spud est présenté par Brockman non pas seulement comme un produit commercial, mais comme une étape sur la trajectoire vers l'intelligence artificielle générale — une IA capable d'opérer sur des domaines variés avec la flexibilité d'un raisonnement humain. Si cette vision reste ambitieuse, la centralisation de la recherche dans un seul modèle de fondation robuste est une stratégie délibérée pour accélérer le rythme des itérations futures. Les concurrents devront désormais répondre non seulement à GPT-5.5, mais à toute une lignée de modèles qui en découleront, rendant la fenêtre de rattrapage plus étroite que jamais.

UELes développeurs et entreprises européens intégrant ChatGPT dans leurs workflows bénéficieront d'un modèle potentiellement plus précis, mais aucun impact réglementaire ou institutionnel direct sur la France ou l'UE n'est mentionné.

LLMsOpinion
1 source
OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?
20Le Big Data 

OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?

Le mardi 24 mars 2026, l'équipe officielle de Sora a publié un message d'adieu sur X, confirmant la fermeture définitive du générateur de vidéos par IA d'OpenAI. Six mois seulement après son lancement grand public en septembre 2025, l'application est débranchée. Pourtant, les débuts avaient été spectaculaires : Sora avait franchi le million de téléchargements plus vite que ChatGPT en son temps. Mais l'euphorie a été de courte durée. Dès janvier 2026, les téléchargements chutaient de 45 % en un mois, le taux de rétention à 30 jours s'effondrait sous les 8 %, et sur le dernier mois, l'outil ne réunissait plus que 600 000 utilisateurs actifs, relégué à la 172e place de l'App Store. Pendant ce temps, faire tourner l'infrastructure coûtait à OpenAI 15 millions de dollars par jour — une hémorragie financière impossible à tenir. L'accord avec Disney, qui avait investi un milliard de dollars en décembre pour permettre l'intégration de plus de 200 personnages franchisés (Marvel, Star Wars, Pixar) dans les vidéos générées, est lui aussi annulé, l'investissement ne s'étant finalement jamais concrétisé. La fermeture de Sora est avant tout un signal stratégique fort : OpenAI prépare son introduction en bourse pour le quatrième trimestre 2026 et doit convaincre Wall Street de sa rentabilité. Fidji Simo, nouvelle responsable de la division AGI Deployment, a été explicite en interne : l'entreprise ne peut plus se disperser dans des « quêtes secondaires ». Sam Altman a réorganisé ses priorités autour de la levée de capitaux et de la construction de centres de données. Toute la puissance de calcul libérée par l'arrêt de Sora est redirigée vers les clients B2B, jugés bien plus lucratifs. La semaine précédant l'annonce, OpenAI confirmait aussi la fusion de ChatGPT desktop, de son outil de code Codex et de son navigateur web en une seule « super-app » — une consolidation qui illustre cette nouvelle discipline budgétaire. L'entraînement d'un nouveau modèle, nom de code « Spud », vient par ailleurs de s'achever, confirmant que les priorités technologiques ont changé de camp. Sora était apparu en février 2024 comme une promesse de révolution pour Hollywood, capable de générer des vidéos photoréalistes à partir d'un simple texte. Son lancement public avait suscité un engouement mondial, mais le fossé entre la démonstration technique et l'usage quotidien s'est révélé impossible à combler face à la brutalité des chiffres économiques.

UELes créateurs de contenu et studios européens utilisant Sora perdent l'accès à l'outil et doivent se tourner vers des alternatives concurrentes pour leurs productions vidéo générées par IA.

BusinessOpinion
1 source
Apple peut « distiller » le grand modèle Gemini de Google
21The Information AI 

Apple peut « distiller » le grand modèle Gemini de Google

Apple et Google ont conclu un accord de partenariat IA bien plus profond qu'il n'y paraissait. Au-delà du simple ajustement (fine-tuning) du modèle Gemini, Apple dispose d'un accès complet au modèle dans ses propres infrastructures de data centers. Cet accès permet à Apple de produire des modèles plus petits, optimisés pour des tâches spécifiques ou suffisamment légers pour tourner directement sur les appareils Apple — une technique appelée « distillation ». Cela change considérablement la donne pour Siri et les fonctionnalités IA promises depuis longtemps. En exécutant des modèles distillés localement, Apple gagne en vitesse de traitement et en confidentialité, deux avantages cruciaux pour sa clientèle. La dépendance aux serveurs distants diminue, ce qui réduit aussi les coûts d'infrastructure — un enjeu d'autant plus pressant que les capacités serveur sont actuellement en tension dans tout le secteur. En parallèle, OpenAI traverse sa propre restructuration : son PDG Sam Altman vient de réorganiser l'entreprise, lancé un nouveau modèle baptisé « Spud » et mis fin à l'application vidéo Sora — jugée trop gourmande en serveurs dans le cadre d'une stratégie de recentrage sur les produits prioritaires.

LLMsOpinion
1 source
OpenAI : Sam Altman évoque en interne un modèle "très puissant" capable d'"accélérer vraiment l'économie
22The Decoder 

OpenAI : Sam Altman évoque en interne un modèle "très puissant" capable d'"accélérer vraiment l'économie

OpenAI aurait achevé le pré-entraînement de son prochain grand modèle d'IA, dont le nom de code interne est « Spud ». Le PDG Sam Altman l'a décrit en interne comme « très puissant » et capable d'« accélérer vraiment l'économie ». Si ces déclarations se confirment, ce modèle marquerait un nouveau palier dans les capacités des IA génératives, avec des implications potentiellement significatives pour la productivité économique à grande échelle. OpenAI enchaîne les sorties de modèles à un rythme soutenu, dans un contexte de concurrence intense avec Google, Anthropic et les acteurs chinois comme DeepSeek.

UEUn nouveau modèle OpenAI de cette envergure pourrait accélérer l'adoption de l'IA en Europe et renforcer la pression réglementaire dans le cadre de l'AI Act.

LLMsActu
1 source
Le PDG d'OpenAI redistribue les responsabilités et prépare le modèle IA 'Spud
23The Information AI 

Le PDG d'OpenAI redistribue les responsabilités et prépare le modèle IA 'Spud

Sam Altman a délégué la supervision des équipes sécurité d'OpenAI pour se concentrer sur la levée de fonds et la construction de datacenters "à une échelle sans précédent". Parallèlement, il a annoncé la finalisation du développement initial de leur prochain grand modèle d'IA, nom de code Spud. OpenAI ferme également l'application mobile Sora, jugée trop gourmande en ressources dans un contexte de concurrence accrue avec Anthropic et Google.

LLMsActu
1 source