Aller au contenu principal
LLMsLatent Space1h

La physique au feeling : Alex Lupsasca, OpenAI

Résumé IASource uniqueImpact UE
Source originale ↗·
La physique au feeling : Alex Lupsasca, OpenAI
▶ Voir sur YouTube

Alex Lupsasca est physicien théoricien à Harvard, lauréat du Prix Breakthrough 2024 New Horizons in Fundamental Physics, surnommé "l'Oscar de la physique", et l'un des premiers chercheurs à tester sérieusement les grands modèles de langage sur des problèmes scientifiques de pointe. Depuis un an et demi, il cartographie les limites des modèles d'OpenAI. Quand GPT-5 est sorti, il lui a soumis l'un de ses meilleurs articles, un travail qui lui avait demandé des années de recherche : le modèle l'a reproduit en 30 minutes. Plus récemment, son directeur de thèse, le professeur Andrew Strominger de Harvard, avait une intuition sur des quantités mathématiques appelées "amplitudes arbre à gluon simple-moins", supposées nulles dans certains cas mais que l'équipe soupçonnait d'être non-nulles. L'équation centrale du papier s'étend sur un quart de page, une somme de 32 termes impliquant chacun quatre formules complexes. Après plus d'un an sans avancée réelle, ChatGPT a résolu le problème en une semaine, avant même que Strominger n'atterrisse à San Francisco pour venir travailler sur le sujet en personne chez OpenAI.

Ce qui frappe Lupsasca n'est pas seulement la rapidité, mais la méthode : le modèle a spontanément identifié un cas limite (le "régime semi-collinéaire") qui simplifie l'expression de façon élégante. Ce n'est pas de la mémorisation ou de la compression statistique, c'est du raisonnement mathématique autonome. Il y a un an, les LLMs commençaient tout juste à produire des maths correctes ; aujourd'hui, ChatGPT peut reproduire les travaux les plus difficiles d'un lauréat du Breakthrough Prize le temps d'un café. Pour la physique théorique, dont les cycles de recherche peuvent s'étaler sur des années, cette compression du temps de découverte ouvre une perspective radicalement nouvelle.

Ce bond illustre ce que certains appellent la "jagged frontier" de l'IA : les modèles progressent de façon asymétrique selon les tâches, avec des gains quasi-invisibles pour rédiger un email et spectaculaires aux extrêmes de la recherche. Lupsasca avait pressenti cette dynamique bien avant ses collègues, en testant o3 sur un calcul qui lui aurait pris plusieurs jours, résolu en onze minutes. Resté sceptique face à l'accueil tiède réservé à GPT-5 sur Twitter, il a rejoint OpenAI depuis Vanderbilt pour pousser ces limites systématiquement. Mark Chen, directeur de la recherche d'OpenAI, a contribué à affiner la méthode en suggérant de "préparer" le modèle avec un exercice de manuel avant de lui soumettre le vrai problème, une technique de prompting qui a débloqué des capacités autrement inaccessibles. La question qui s'ouvre est celle de la généralisation : si l'IA peut s'attaquer aux problèmes les plus ardus de la physique théorique, d'autres disciplines scientifiques sont certainement les prochaines sur la liste.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GPT-5.5 et la super-application OpenAI Codex
1Latent Space 

GPT-5.5 et la super-application OpenAI Codex

OpenAI a lancé GPT-5.5 le 22 avril 2026, une semaine après la sortie de Claude Opus 4.7 par Anthropic. Le modèle est présenté comme "une nouvelle classe d'intelligence pour le travail réel" et déployé progressivement sur ChatGPT et Codex, l'accès API étant temporairement limité en attendant des vérifications de sécurité supplémentaires. Les benchmarks publiés sont impressionnants : 82,7% sur Terminal-Bench 2.0, 58,6% sur SWE-Bench Pro, 84,9% sur GDPval, 78,7% sur OSWorld-Verified et 84,4% sur BrowseComp. Le tarif API est fixé à 5$/30$ par million de tokens en entrée/sortie pour la version standard, et 30$/180$ pour la version Pro. Selon Artificial Analysis, GPT-5.5 en configuration medium atteint le même niveau que Claude Opus 4.7 au maximum sur leur Intelligence Index, mais à un quart du coût : environ 1 200 dollars contre 4 800. La fenêtre de contexte atteint 1 million de tokens en API, et Sam Altman souligne que le modèle consomme moins de tokens par tâche que son prédécesseur GPT-5.4. Ce lancement ne se résume pas à une simple mise à jour de modèle. GPT-5.5 marque un pivot stratégique d'OpenAI vers l'inférence agentique longue durée et l'efficacité économique, deux dimensions qui comptent davantage pour les entreprises que les scores bruts sur benchmarks académiques. La capacité à exécuter des tâches complexes avec moins d'interventions humaines change concrètement la proposition de valeur pour les développeurs et les équipes techniques. En parallèle, OpenAI a profondément étendu Codex : contrôle du navigateur, intégration avec Google Sheets, Slides, Docs et PDFs, dictée à l'échelle du système d'exploitation, et un mode de revue automatique reposant sur un agent secondaire dit "gardien" qui réduit le nombre de validations nécessaires sur les tâches longues. Codex n'est plus un outil de coding assisté : il devient un agent capable de naviguer dans des interfaces web, capturer des captures d'écran, itérer jusqu'à complétion, et traiter des flux de travail qui couvrent l'assurance qualité, la bureautique et la construction d'applications. Ce lancement s'inscrit dans une course frontale entre OpenAI, Anthropic et Google, dont Gemini 3.1 Pro Preview atteint un niveau comparable à GPT-5.5 à environ 900 dollars selon Artificial Analysis. OpenAI a co-conçu le modèle avec les systèmes NVIDIA GB200/300, et affirme que GPT-5.5 a contribué à améliorer sa propre infrastructure d'inférence, une affirmation qui illustre la direction que prend la compagnie. Sam Altman positionne désormais explicitement OpenAI comme une "entreprise d'inférence IA", signalant que la compétition ne se joue plus seulement sur la qualité des modèles mais sur leur coût d'exploitation à l'échelle. La décision d'absorber Prism et de faire de Codex la base d'une stratégie de superapp unifiée suggère qu'OpenAI cherche à verrouiller les workflows professionnels dans son écosystème, bien au-delà du simple chat.

UELes développeurs et entreprises européens bénéficient d'un modèle agentique de niveau SOTA à coût sensiblement réduit, ce qui modifie concrètement les arbitrages de déploiement IA à grande échelle sur le marché européen.

💬 Le ratio coût/perf, c'est là que ça se joue. GPT-5.5 medium au niveau d'Opus 4.7 max pour un quart du prix, les équipes qui hésitaient vont trancher vite. Et ce pivot vers une superapp avec Codex en moteur, c'est plus ambitieux qu'il n'y paraît : si l'agent gardien tient vraiment sur des tâches longues, OpenAI verrouille les workflows pro bien plus efficacement qu'avec n'importe quel score sur un benchmark.

LLMsOpinion
1 source
GPT-5.5 a fuité chez OpenAI : ce que la mise à jour silencieuse révèle
2Le Big Data 

GPT-5.5 a fuité chez OpenAI : ce que la mise à jour silencieuse révèle

GPT-5.5 a fait son apparition silencieuse dans ChatGPT Pro le 19 avril 2026 : des dizaines d'utilisateurs ont signalé une accélération spectaculaire des performances du modèle, sans aucune annonce officielle d'OpenAI. Des tâches complexes en programmation et en conception, qui nécessitaient auparavant entre 15 et 30 minutes, s'exécutent désormais en 1 à 5 minutes. En fouillant l'interface de ChatGPT, plusieurs utilisateurs ont découvert des mentions enfouies dans le code : "GPT-5.5 Pro", les noms de code "crest-pro-alpha" et "Spud", ainsi que l'étiquette "caffeinated by tokens". Des responsables d'OpenAI, dont Eric Mitchell, auraient par ailleurs interrogé en interne la perception de la qualité des réponses, confirmant que des ajustements sont bien en cours en coulisses. Aucune note de version ni communiqué officiel n'a accompagné ces changements. Les benchmarks comparatifs publiés en ligne sont frappants. Sur des tâches de conversion image-vers-code et texte-vers-code, la version GPT-5.5 surpasse à la fois Gemini 3.1 Pro et Claude Opus 4.7 d'Anthropic, en particulier sur la fidélité graphique et la structuration des interfaces générées. Plus révélateur encore : lorsqu'on demande une reproduction "100 % identique" d'une image de référence, le modèle ne se contente pas d'affiner son CSS, il récupère directement les composants visuels présents dans l'image source pour les intégrer au code, une approche qualitativement différente. Les réactions restent cependant partagées : une partie des utilisateurs salue la rapidité et la créativité accrues, tandis que d'autres estiment que la vitesse s'est faite au détriment de la précision globale. Cette mise à jour silencieuse de GPT-5.5 s'inscrit dans une dynamique de concurrence intense entre les grands laboratoires d'IA. OpenAI, Anthropic et Google se livrent depuis plusieurs mois à une surenchère de modèles et de versions, avec des cycles de publication de plus en plus rapides. Le fait qu'OpenAI déploie des changements significatifs sans annonce publique révèle une stratégie de tests en conditions réelles, directement auprès des abonnés Pro à 200 dollars par mois, qui servent en quelque sorte de beta-testeurs involontaires. Si GPT-5.5 venait à être officiellement confirmé, ce serait la deuxième mise à jour majeure de la gamme GPT-5 en quelques semaines, signalant qu'OpenAI cherche à creuser l'écart avec ses concurrents sur le segment premium avant que Anthropic ou Google ne ripostent avec leurs propres nouvelles versions.

UEL'arrivée silencieuse de GPT-5.5 met une pression directe sur les laboratoires européens (Mistral, Pleias, Hugging Face) qui visent le segment premium. La cadence d'OpenAI – deuxième mise à jour majeure de la gamme GPT-5 en quelques semaines – exclut de facto les acteurs européens du débat technique : ils découvrent les nouvelles performances en même temps que les utilisateurs. Côté régulateur, l'absence de release notes et de communication officielle pose une question de transparence : l'AI Act exige une documentation des capacités des modèles à usage général, mais le déploiement test sans annonce contourne cette logique en pratique. Les abonnés européens à ChatGPT Pro bénéficient des gains de performance non annoncés, sans information sur les changements de comportement du modèle.

💬 Le pattern est connu : OpenAI annonce, teasing, fuites contrôlées, déploiement silencieux, puis annonce officielle. C'est la troisième fois que ce schéma se déroule (GPT-4, GPT-5, maintenant 5.5) — il devient une signature stratégique d'OpenAI, pas un accident. La fonction de la fuite contrôlée est double : tester la performance perçue auprès d'un panel d'utilisateurs payants sans engager la communication officielle, et générer un buzz social qui précède l'annonce sans dépenser un dollar de marketing. À surveiller dans les 30 prochains jours : une annonce officielle de capacités agentiques liées à GPT-5.5, en cohérence avec la refonte du partenariat OpenAI/Microsoft du 27 avril qui pose un plafond sur les revenus reversés à Microsoft et signale un repositionnement vers le segment "infrastructure de travail agentique".

LLMsOpinion
1 source
OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »
3Le Big Data 

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »

Brad Lightcap, directeur des opérations d'OpenAI, a déclaré début avril 2026 que les modèles d'IA actuels, y compris GPT-5.4, paraîtront dépassés d'ici la fin de l'année. Cette affirmation intervient alors que GPT-5.4, lancé il y a quelques jours à peine, affiche déjà un rythme de revenus annualisé d'un milliard de dollars et traite environ 5 000 milliards de tokens par jour. En l'espace de quelques semaines, OpenAI a enchaîné les versions GPT-5.1, 5.2, 5.3 puis 5.4, chacune apportant des gains significatifs sans attendre les longs cycles de recherche et de déploiement qui caractérisaient autrefois le secteur. GPT-5.4 s'est imposé comme le moteur principal des API d'OpenAI presque instantanément, et intègre une capacité nouvelle : le modèle décide lui-même s'il doit raisonner en profondeur ou répondre directement, sans que l'utilisateur ait à choisir un mode particulier. Des améliorations concrètes sont déjà visibles en écriture, en génération de code et dans des secteurs exigeants comme la santé. Ce rythme d'itération inédit transforme en profondeur la manière dont les entreprises et les développeurs adoptent l'IA. Un modèle sorti depuis quelques jours peut déjà devenir dominant à l'échelle mondiale, ce qui compresse les cycles d'adoption et rend obsolètes les intégrations à peine finalisées. Pour les équipes techniques qui s'appuient sur les API d'OpenAI, cela signifie une mise à jour permanente des pratiques et des outils. Le phénomène fonctionne comme un effet boule de neige : plus un modèle est performant, plus il est adopté dans des usages critiques comme le développement logiciel ou l'analyse de données, ce qui génère des revenus permettant de financer le cycle suivant encore plus vite. La barre de ce qui constitue un outil "avancé" se déplace en permanence, rendant les standards d'aujourd'hui potentiellement minimaux demain. Cette dynamique s'inscrit dans une évolution structurelle du secteur. Pendant des années, les progrès en IA se mesuraient en recherche académique publiée et en grands modèles sortis annuellement. Depuis GPT-4, puis o1, puis la série GPT-5, OpenAI a progressivement réduit la durée des cycles d'entraînement et de déploiement. La déclaration de Lightcap marque une accélération supplémentaire : les améliorations ne sont plus linéaires mais exponentielles, chaque génération servant de base accélérée à la suivante. Si cette projection se confirme, les concurrents — Google DeepMind, Anthropic, Meta — devront soutenir un rythme similaire pour rester compétitifs, ce qui soulève des questions sur les ressources de calcul nécessaires et sur la capacité des organisations à intégrer des outils qui évoluent plus vite qu'elles ne peuvent se les approprier.

UELes équipes techniques européennes utilisant les API OpenAI doivent adapter en permanence leurs intégrations face à un rythme d'itération qui rend obsolètes les outils à peine déployés.

LLMsOpinion
1 source
GPT-6 déjà teasé par le PDG : OpenAI passe à la vitesse supérieure
4Le Big Data 

GPT-6 déjà teasé par le PDG : OpenAI passe à la vitesse supérieure

Quelques jours à peine après le lancement de GPT-5.5, le PDG d'OpenAI Sam Altman a publié le 28 avril 2026 sur X une capture d'écran évoquant l'entraînement de GPT-6, avec la mention humoristique « encore plus de gobelins ». Ce teasing inattendu est né d'un bug désormais célèbre dans la communauté tech : depuis GPT-5.1, les modèles d'OpenAI glissaient régulièrement des gobelins, gremlins, trolls et autres créatures fantastiques dans leurs réponses, un comportement qui s'est amplifié de façon notable entre les versions GPT-5.2 et GPT-5.4. Face aux moqueries croissantes sur les réseaux sociaux, OpenAI a fini par intégrer des instructions explicites dans GPT-5.5 pour lui interdire de mentionner ces créatures. C'est cette révélation, découverte par des utilisateurs fouillant les paramètres du modèle, qui a mis le feu aux poudres sur X et poussé Altman à y répondre avec sa propre blague. Au-delà du trait d'humour, la sortie d'Altman a suffi à relancer les spéculations sur le calendrier de sortie de GPT-6. Le PDG n'a fourni aucune date, aucune fonctionnalité précise, aucun engagement formel. Pourtant, dans un secteur où chaque communication du dirigeant d'OpenAI est analysée au millimètre, la simple mention du nom GPT-6 dans un contexte public suffit à signaler que la prochaine génération est au moins en cours de développement actif. Pour les entreprises et développeurs qui intègrent les API d'OpenAI dans leurs produits, cela signifie que la fenêtre entre deux générations majeures continue de se réduire, comprimant les cycles d'adaptation. OpenAI traverse une période d'accélération intense sur son calendrier de sorties : GPT-4o, GPT-4.5, GPT-5, puis GPT-5.1 à 5.5 en l'espace de quelques mois, une cadence sans précédent dans l'histoire du laboratoire. Cette multiplication de versions intermédiaires traduit à la fois la pression concurrentielle exercée par Anthropic, Google DeepMind et les acteurs open source comme Meta, et la volonté d'OpenAI d'itérer rapidement en production plutôt qu'en laboratoire fermé. Les indices accumulés ces derniers mois sur GPT-6 suggèrent une architecture plus stable, une mémoire longue terme améliorée et une intégration plus profonde avec les fichiers et applications tierces. Quant aux gobelins, leur disparition officielle de GPT-5.5 illustre un problème récurrent dans l'entraînement des grands modèles de langage : des comportements émergents inattendus, difficiles à anticiper et à corriger sans instructions explicites.

UELes développeurs et entreprises européens intégrant les API d'OpenAI devront adapter leurs cycles de maintenance à une cadence de sorties qui continue de s'accélérer.

LLMsOpinion
1 source