Aller au contenu principal
LLMsThe Decoder1h

Un médaillé Fields : ChatGPT 5.5 Pro a produit une recherche niveau doctorat en moins de deux heures sans aide humaine

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le mathématicien Timothy Gowers, lauréat de la médaille Fields en 1998 et l'une des figures les plus respectées des mathématiques contemporaines, a soumis ChatGPT 5.5 Pro à une série de problèmes ouverts en théorie des nombres. En moins d'une heure, le modèle d'OpenAI a transformé une borne exponentielle en borne polynomiale, une avancée non triviale dans ce domaine. Un chercheur du MIT impliqué dans l'évaluation a qualifié l'idée centrale trouvée par le modèle de "complètement originale". L'ensemble du travail a été accompli en moins de deux heures, sans aucune intervention humaine.

Cette performance marque un tournant dans la perception des capacités des grands modèles de langage en mathématiques de haut niveau. Jusqu'ici, les LLMs excellaient à résoudre des exercices connus ou à vérifier des démonstrations existantes, mais produire une idée originale en recherche pure était considéré hors de portée. Si un modèle peut désormais contribuer à des problèmes ouverts au niveau doctorat, cela remet en question la définition même de la contribution mathématique humaine.

La réflexion de Gowers est particulièrement révélatrice : selon lui, le nouveau critère pour évaluer une contribution mathématique sera désormais de prouver quelque chose qu'un LLM ne peut pas faire. Ce déplacement de la référence illustre une transformation profonde du rapport entre l'IA et la recherche fondamentale. OpenAI, qui avait déjà annoncé des ambitions en mathématiques formelles avec des outils comme le prover interne, franchit ici une étape qualitative qui devrait accélérer les débats sur la co-authorship humain-IA dans les publications académiques.

Impact France/UE

Les institutions académiques françaises et européennes devront réviser leurs critères d'évaluation de la contribution scientifique et leurs règles de co-authorship face à des LLMs capables de produire des résultats originaux en mathématiques fondamentales.

💬 Le point de vue du dev

Une borne exponentielle transformée en polynomiale en moins d'une heure, sur un problème ouvert, validé par Gowers lui-même. Ce n'est pas un benchmark bidouillé, c'est de la recherche fondamentale originale. Et la réaction de Gowers dit tout : la nouvelle mesure de la contribution mathématique, ça sera désormais de prouver ce qu'un LLM ne peut pas faire.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5
1VentureBeat AI 

DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5

DeepSeek, la startup chinoise d'intelligence artificielle issue du fonds de trading quantitatif High-Flyer Capital Management, a publié DeepSeek-V4, un modèle de langage aux capacités proches des meilleurs systèmes mondiaux. Avec 1 600 milliards de paramètres organisés selon une architecture Mixture-of-Experts (MoE), ce modèle est disponible gratuitement sous licence MIT commercialement permissive, sur la plateforme Hugging Face et via l'API de DeepSeek. Son tarif d'accès : 1,74 dollar par million de tokens en entrée et 3,48 dollars par million en sortie, soit environ 5,22 dollars pour une utilisation combinée standard. Avec les entrées mises en cache, ce coût descend à 3,63 dollars. À titre de comparaison, GPT-5.5 d'OpenAI coûte 35 dollars pour la même transaction, et Claude Opus 4.7 d'Anthropic 30 dollars. Une version allégée, DeepSeek-V4-Flash, est proposée à seulement 0,42 dollar combiné, au prix d'une baisse de performance. Deli Chen, chercheur chez DeepSeek, a décrit cette sortie sur X comme "un travail d'amour", réalisé 484 jours après le lancement du V3, avec cette formule : "L'AGI appartient à tout le monde." L'impact économique est immédiat et brutal pour les acteurs américains du secteur. DeepSeek-V4-Pro coûte environ six fois moins cher que Claude Opus 4.7 et sept fois moins que GPT-5.5 en conditions normales, et jusqu'à dix fois moins avec les entrées en cache. La version Flash, elle, revient à moins de 1 % du tarif des modèles premium américains. Pour les entreprises traitant de gros volumes de requêtes, cette différence de coûts transforme radicalement le calcul de rentabilité : des tâches d'automatisation jugées trop onéreuses avec les modèles fermés américains deviennent soudainement viables. Développeurs et directions techniques sont contraints de réévaluer leurs choix d'infrastructure, et les fournisseurs positionnés sur le haut de gamme voient leur argument tarifaire sérieusement fragilisé. Ce lancement s'inscrit dans la continuité du "moment DeepSeek" de janvier 2025, quand le modèle R1 avait stupéfait la communauté internationale en rivalisant avec les meilleurs systèmes propriétaires américains à une fraction de leur coût de développement. Depuis, la startup avait publié plusieurs mises à jour de ses séries R1 et V3, mais la communauté attendait un successeur de grande envergure. Ce DeepSeek-V4 est d'ores et déjà qualifié de "deuxième moment DeepSeek", et il ravive les débats sur la pérennité commerciale des modèles fermés face aux alternatives open source chinoises. Il soulève également des questions sur la capacité de DeepSeek à maintenir cette trajectoire malgré les restrictions américaines sur l'exportation de puces haut de gamme, contraintes que l'entreprise semble contourner avec une efficacité croissante grâce à des optimisations architecturales poussées.

UEL'écart de prix, jusqu'à six fois inférieur aux modèles premium américains, permet aux entreprises européennes de rentabiliser des projets d'automatisation IA jusqu'ici jugés trop coûteux.

💬 Six fois moins cher qu'Opus 4.7, performances comparables, licence MIT. C'est exactement le scénario que les équipes produit chez OpenAI et Anthropic essayaient de ne pas avoir à gérer, et il arrive quand même. "L'AGI appartient à tout le monde", dit DeepSeek, bon, sur le papier c'est beau, mais le vrai truc c'est que des automatisations qu'on refusait de budgéter il y a six mois deviennent rentables dès ce soir.

LLMsOpinion
1 source
Actualité : “Un seuil a été franchi” : le nouveau modèle de Claude a fuité par erreur, Anthropic évoque des capacités sans précédent
2Les Numériques IA 

Actualité : “Un seuil a été franchi” : le nouveau modèle de Claude a fuité par erreur, Anthropic évoque des capacités sans précédent

Anthropic a involontairement dévoilé l'existence de son prochain modèle phare, baptisé Claude Mythos, à la suite d'une erreur de configuration dans son système de gestion de contenu. Un brouillon de page interne est brièvement devenu accessible au public, révélant le nom du modèle ainsi que plusieurs formulations suggérant des capacités inédites. La société a rapidement retiré le document, mais des captures d'écran avaient déjà circulé sur les réseaux sociaux et les forums spécialisés. Ce type de fuite est rare chez Anthropic, réputé pour sa discrétion opérationnelle, et l'incident soulève l'attention de l'ensemble du secteur. Le fait que l'entreprise elle-même qualifie les capacités de Mythos de "sans précédent" et évoque un "seuil franchi" laisse entendre un bond qualitatif significatif par rapport à Claude 3.5 et à la série actuelle Claude 4. Pour les développeurs, entreprises et concurrents qui suivent la course aux modèles de fondation, ce signal — même involontaire — pèse lourd dans l'évaluation des dynamiques compétitives. Anthropic se positionne depuis plusieurs années comme l'alternative "safety-first" face à OpenAI et Google DeepMind, avec une communication volontairement mesurée. La fuite de Mythos intervient dans un contexte d'accélération brutale du secteur : GPT-5, Gemini Ultra 2 et plusieurs modèles open-source ont rehaussé les attentes du marché en quelques mois. Si Mythos tient ses promesses implicites, il pourrait redéfinir le positionnement d'Anthropic — et forcer ses rivaux à accélérer leurs propres calendriers de lancement.

UELes acteurs européens qui évaluent ou déploient des modèles de fondation pourraient devoir réévaluer leurs choix technologiques si les capacités annoncées se confirment lors du lancement officiel.

LLMsActu
1 source
ChatGPT intègre GPT-5.5 Instant : moins d'hallucinations et des réponses plus personnalisées
3The Decoder 

ChatGPT intègre GPT-5.5 Instant : moins d'hallucinations et des réponses plus personnalisées

OpenAI a commencé à déployer GPT-5.5 Instant comme modèle par défaut de ChatGPT, remplaçant ainsi le modèle précédemment utilisé par des centaines de millions d'utilisateurs. Selon les tests internes de l'entreprise, cette mise à jour produit 52,5 % d'hallucinations en moins sur des sujets à enjeux élevés comme la médecine et le droit. Le déploiement est immédiat pour l'ensemble des utilisateurs, bien que certaines fonctionnalités avancées de personnalisation soient réservées, dans un premier temps, aux abonnés Plus et Pro sur la version web. La réduction des hallucinations sur des domaines sensibles représente un progrès concret pour les professionnels de santé, les juristes et tous ceux qui utilisent ChatGPT comme outil de travail. Une nouvelle fonctionnalité baptisée "memory sources" permet désormais aux utilisateurs de voir précisément quels éléments de contexte mémorisé ont influencé une réponse donnée, apportant une transparence inédite sur le fonctionnement de la personnalisation. La personnalisation basée sur les conversations passées, les fichiers et Gmail marque une intégration plus profonde dans l'écosystème quotidien des utilisateurs. Ce déploiement s'inscrit dans une course effrénée entre les grandes plateformes d'IA générative à améliorer la fiabilité de leurs modèles, point noir persistant depuis l'émergence des LLMs. OpenAI, sous pression concurrentielle d'Anthropic, Google et des acteurs open source, mise sur la personnalisation contextuelle et la réduction des erreurs factuelles pour fidéliser sa base d'utilisateurs. L'intégration Gmail, en particulier, soulève des questions sur la confidentialité des données qui devraient alimenter le débat dans les mois à venir.

UEL'intégration Gmail soulève des questions de conformité GDPR pour les utilisateurs européens, tandis que la réduction des hallucinations dans des domaines sensibles bénéficie aux professionnels français en santé et droit utilisant ChatGPT.

LLMsActu
1 source
DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles
4Pandaily 

DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles

DeepSeek a annoncé le 26 avril une réduction massive des tarifs de son API, établissant de nouveaux planchers mondiaux pour les grands modèles de langage. Sur l'ensemble de la gamme V4, les prix des requêtes en cache d'entrée ont été divisés par dix par rapport aux tarifs initiaux. Le modèle phare V4-Pro bénéficie en outre d'une promotion temporaire de 75 % valable jusqu'au 5 mai 2026, portant le coût du cache d'entrée à seulement 0,025 yuan par million de tokens (environ 0,0035 dollar), un niveau sans précédent dans l'industrie. Pour V4-Flash, le tarif passe de 0,2 yuan à 0,02 yuan par million de tokens (0,0028 dollar). Sur V4-Pro, les entrées non mises en cache tombent de 12 à 3 yuans (0,41 dollar) et les sorties de 24 à 6 yuans (0,83 dollar). Ces baisses surviennent deux jours après la mise en open source de DeepSeek-V4, disponible en versions Pro et Flash, avec un support de contextes allant jusqu'à un million de tokens. Ces tarifs redéfinissent ce qui est économiquement viable pour les développeurs et les entreprises qui intègrent des modèles de langage dans leurs produits. À moins de 0,004 dollar par million de tokens en cache, des usages autrefois coûteux deviennent accessibles : agents autonomes, traitement massif de documents, pipelines de code avancés. L'argument économique est renforcé par des performances solides : en interne chez DeepSeek, V4 est jugé supérieur à Claude Sonnet 4.5 sur les tâches de programmation, avec une qualité approchant celle de Claude Opus 4.6 en mode non-raisonné. Dans les benchmarks généraux, V4-Pro surpasse tous les modèles open source et ne cède qu'aux meilleurs modèles propriétaires comme Gemini Pro 3.1 ; en mathématiques, STEM et coding compétitif, il égale ou dépasse les leaders du marché. Ces baisses de prix reposent sur des avancées architecturales concrètes. V4-Pro n'active que 49 milliards de paramètres sur 33 000 milliards de tokens d'entraînement, mais son coût de calcul par token est réduit à 27 % de celui de son prédécesseur V3.2, et l'utilisation du cache KV chute de 90 %. Le nouveau mécanisme d'attention creuse développé en interne (DSA) compresse les dimensions des tokens pour offrir de hautes performances sur les longs contextes avec des besoins en mémoire réduits. Stratégiquement, la série V4 est entièrement compatible avec les supernœuds Huawei Ascend, marquant un ancrage renforcé dans l'infrastructure de calcul domestique chinoise. Goldman Sachs a récemment souligné l'importance stratégique de DeepSeek-V4, et la mise en production massive des supernœuds Ascend prévue d'ici fin 2026 laisse entrevoir de nouvelles baisses tarifaires. Dans un secteur où OpenAI, Google et Anthropic s'affrontent déjà sur les prix, cette annonce amplifie la pression sur l'ensemble de l'écosystème mondial de l'IA.

UELa réduction massive des prix de l'API DeepSeek V4 offre aux développeurs et entreprises européens un accès à des modèles de pointe à des coûts jusqu'à dix fois inférieurs, rendant économiquement viables des usages IA auparavant réservés aux grandes structures.

💬 0,004 dollar par million de tokens, c'est le prix où les agents continus et le traitement massif de docs deviennent des trucs normaux, pas des projets de grande entreprise. Et que V4 passe devant Sonnet sur le code, ça commence à faire mal pour les modèles US sur le segment développeurs. Reste à voir si ça tient à l'échelle, mais le rapport de force change.

LLMsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour