La physique au feeling : Alex Lupsasca, OpenAI

Alex Lupsasca est physicien théoricien à Harvard, lauréat du Prix Breakthrough 2024 New Horizons in Fundamental Physics, surnommé "l'Oscar de la physique", et l'un des premiers chercheurs à tester sérieusement les grands modèles de langage sur des problèmes scientifiques de pointe. Depuis un an et demi, il cartographie les limites des modèles d'OpenAI. Quand GPT-5 est sorti, il lui a soumis l'un de ses meilleurs articles, un travail qui lui avait demandé des années de recherche : le modèle l'a reproduit en 30 minutes. Plus récemment, son directeur de thèse, le professeur Andrew Strominger de Harvard, avait une intuition sur des quantités mathématiques appelées "amplitudes arbre à gluon simple-moins", supposées nulles dans certains cas mais que l'équipe soupçonnait d'être non-nulles. L'équation centrale du papier s'étend sur un quart de page, une somme de 32 termes impliquant chacun quatre formules complexes. Après plus d'un an sans avancée réelle, ChatGPT a résolu le problème en une semaine, avant même que Strominger n'atterrisse à San Francisco pour venir travailler sur le sujet en personne chez OpenAI.
Ce qui frappe Lupsasca n'est pas seulement la rapidité, mais la méthode : le modèle a spontanément identifié un cas limite (le "régime semi-collinéaire") qui simplifie l'expression de façon élégante. Ce n'est pas de la mémorisation ou de la compression statistique, c'est du raisonnement mathématique autonome. Il y a un an, les LLMs commençaient tout juste à produire des maths correctes ; aujourd'hui, ChatGPT peut reproduire les travaux les plus difficiles d'un lauréat du Breakthrough Prize le temps d'un café. Pour la physique théorique, dont les cycles de recherche peuvent s'étaler sur des années, cette compression du temps de découverte ouvre une perspective radicalement nouvelle.
Ce bond illustre ce que certains appellent la "jagged frontier" de l'IA : les modèles progressent de façon asymétrique selon les tâches, avec des gains quasi-invisibles pour rédiger un email et spectaculaires aux extrêmes de la recherche. Lupsasca avait pressenti cette dynamique bien avant ses collègues, en testant o3 sur un calcul qui lui aurait pris plusieurs jours, résolu en onze minutes. Resté sceptique face à l'accueil tiède réservé à GPT-5 sur Twitter, il a rejoint OpenAI depuis Vanderbilt pour pousser ces limites systématiquement. Mark Chen, directeur de la recherche d'OpenAI, a contribué à affiner la méthode en suggérant de "préparer" le modèle avec un exercice de manuel avant de lui soumettre le vrai problème, une technique de prompting qui a débloqué des capacités autrement inaccessibles. La question qui s'ouvre est celle de la généralisation : si l'IA peut s'attaquer aux problèmes les plus ardus de la physique théorique, d'autres disciplines scientifiques sont certainement les prochaines sur la liste.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




