Aller au contenu principal
Modèles du monde
RechercheMIT Technology Review1h

Modèles du monde

1 source couvre ce sujet·Source originale ↗·

Les systèmes d'intelligence artificielle maîtrisent aujourd'hui le monde numérique avec une aisance impressionnante, mais le monde physique reste un défi d'une tout autre nature. Pour franchir ce cap, de nombreux chercheurs misent sur une approche appelée "modèle du monde", une représentation interne que l'IA se construit de son environnement pour anticiper les conséquences de ses actions. Google DeepMind et World Labs, la startup fondée par Fei-Fei Li, professeure à Stanford, travaillent activement sur ces systèmes. Yann LeCun, jusqu'ici figure centrale de Meta, a quant à lui quitté l'entreprise pour fonder une startup entièrement dédiée à cette approche. OpenAI a également redirigé des ressources issues de la fermeture de son application vidéo Sora vers ce qu'elle appelle la "recherche en simulation du monde à long terme".

L'enjeu est de taille : les grands modèles de langage actuels présentent des lacunes profondes dès qu'il s'agit de raisonner sur le monde réel. Une étude révélatrice a montré que des modèles entraînés sur des millions de trajets de taxis new-yorkais peuvent donner des itinéraires corrects dans Manhattan, mais échouent complètement dès qu'on leur impose un détour. Ce type de fragilité est fondamentalement incompatible avec des applications robotiques, où l'imprévu est la règle. Un vrai modèle du monde permettrait à un agent IA de se représenter son environnement avec suffisamment de fidélité pour prédire ce qui se passe si on pousse une tasse du bord d'une table, ou si on change de route en cours de chemin, exactement comme le fait le cerveau humain.

Les applications concrètes émergent progressivement. Niantic, le studio derrière Pokémon Go, exploite les milliards d'images collectées par les joueurs du jeu pour construire les premières briques d'un modèle du monde destiné à guider des robots de livraison. Google DeepMind et World Labs concentrent actuellement leurs efforts sur la génération d'environnements virtuels 3D interactifs à partir de textes, d'images et de vidéos, des outils utiles pour la conception de jeux vidéo ou d'expériences en réalité virtuelle, mais encore limités dans leur portée. Les véritables percées viendront probablement de l'intégration de ces systèmes dans des agents autonomes capables de modéliser leur environnement, d'anticiper les effets de leurs actions et de décider en conséquence. Li et LeCun voient dans cette direction la clé pour des robots capables d'explorer les grands fonds marins ou d'assister le personnel soignant, un horizon encore lointain, mais qui mobilise désormais les acteurs les plus influents du secteur.

À lire aussi

L'IA au MIT
1MIT Technology Review 

L'IA au MIT

Au MIT, l'intelligence artificielle a cessé d'être un domaine spécialisé pour devenir l'infrastructure invisible de la recherche scientifique. Sili Deng, professeure associée en génie mécanique, illustre ce basculement : arrivée en 2019 pour étudier la cinétique de combustion, elle s'est tournée vers le machine learning pendant la pandémie de covid-19, contrainte d'interrompre les rénovations de son laboratoire. Son groupe a depuis développé un "jumeau numérique" capable de modéliser en temps réel le comportement de systèmes de combustion de carburant. Zachary Cordero, professeur associé en aérospatiale, a suivi une trajectoire différente : en 2024, sur recommandation de John Hart, directeur du département de génie mécanique, il a collaboré avec Faez Ahmed, spécialiste du machine learning, sur un projet financé par la DARPA. Ensemble, ils ont conçu un outil d'IA capable d'optimiser la composition matérielle d'un "blisk", disque à aubes central dans les turbines de moteurs à réaction et de fusées, avec des retombées directes sur la fiabilité des lanceurs réutilisables lourds. Ces cas ne sont pas des exceptions. Dans chaque département du MIT, l'IA transforme la recherche : développement de médicaments, neurosciences, métallurgie, robotique, préservation de la faune. Angela Koehler, professeure de bioingénierie et responsable du MIT HEALS, affirme que 90 % des comités de thèse auxquels elle participe comportent désormais une composante IA significative, contre une minorité cinq ans auparavant. Son propre groupe utilise des modèles d'IA pour cibler des molécules longtemps considérées comme "indruggables", comme les facteurs de transcription ou les cytokines. Ian Waitz, vice-président pour la recherche au MIT, résume : "Je ne connais pas un seul domaine de recherche ici qui n'ait pas été impacté par l'IA." Ce déploiement massif s'inscrit dans une histoire longue : le MIT est l'un des berceaux historiques de la recherche en IA, mais la vague actuelle marque une rupture qualitative. Les outils comme le machine learning, les grands modèles de langage et les réseaux de neurones ne servent plus seulement à des projets dédiés à l'IA, ils amplifient des disciplines qui n'avaient pas, jusqu'ici, de rapport direct avec l'informatique. Le professeur Ju Li pousse la réflexion plus loin : si on accorde à l'IA l'autonomie de mener des expériences, d'échouer et d'apprendre, elle pourrait évoluer vers quelque chose de proche de l'intelligence humaine. L'enjeu n'est plus de savoir si l'IA va transformer la science, mais à quelle vitesse les institutions sauront structurer cette transformation sans en perdre le contrôle.

RecherchePaper
1 source
Des scientifiques artificiels
2MIT Technology Review 

Des scientifiques artificiels

Les grandes entreprises d'intelligence artificielle ont longtemps brandi la promesse d'une science révolutionnée pour justifier leurs investissements massifs. Cette promesse prend aujourd'hui une forme concrète : en octobre 2025, OpenAI a lancé une équipe dédiée à l'IA pour la science et vient d'annoncer GPT-Rosalind, premier d'une série de modèles scientifiques spécialisés. Anthropic a simultanément dévoilé plusieurs fonctionnalités Claude orientées vers les sciences biologiques. Google DeepMind, pionnier dans ce domaine, avait déjà décroché le Nobel de chimie 2024 avec AlphaFold, le système de prédiction de structures protéiques développé par Demis Hassabis et John Jumper. En février 2026, Google publiait son propre outil de co-scientifique IA. Sous le capot, ces systèmes combinent généralement plusieurs agents spécialisés : l'outil de Google mobilise un agent superviseur, un agent de génération et un agent de classement pour produire hypothèses et plans de recherche à partir d'un objectif fourni par un chercheur humain. Des chercheurs de Stanford ont de leur côté créé un "laboratoire virtuel" multi-agents capable de concevoir de nouveaux fragments d'anticorps se liant au SARS-CoV-2. L'enjeu dépasse la simple assistance : OpenAI a officiellement désigné la construction d'un chercheur autonome comme sa "North Star". En février, la société a connecté GPT-5 aux laboratoires biologiques automatisés de Ginkgo Bioworks, permettant au système de proposer des expériences et d'interpréter les résultats avec une intervention humaine minimale. Résultat : après un volume d'expériences massif, le système a mis au point un protocole réduisant de 40 % le coût de synthèse d'une protéine spécifique. Cette capacité à itérer à grande vitesse, sans les contraintes physiques ou cognitives d'une équipe humaine, représente un avantage compétitif considérable pour les laboratoires pharmaceutiques, biotechs et centres de recherche fondamentale. Mais une étude publiée dans Nature apporte une nuance importante : si les scientifiques individuels tirent avantage de l'IA dans leur carrière, la science dans son ensemble pourrait en pâtir. En effet, les modèles d'IA excellent dans l'analyse de bases de données existantes et de littérature établie, ce qui pousse les chercheurs qui les utilisent à se concentrer sur des domaines déjà bien documentés, au détriment de territoires moins balisés mais potentiellement décisifs. Le risque est une homogénéisation progressive des sujets de recherche, laissant en jachère des problèmes complexes moins compatibles avec les approches algorithmiques. Pour que l'IA amplifie réellement la science plutôt que de l'uniformiser, la communauté scientifique devra coordonner activement ses efforts pour préserver la diversité et l'originalité de la recherche à l'ère des agents autonomes.

UEGoogle DeepMind, basé à Londres, est pionnier mondial de l'IA scientifique avec AlphaFold et son outil de co-scientifique, ce qui positionne l'Europe comme acteur clé dans la course à l'automatisation de la recherche scientifique.

RecherchePaper
1 source
Les États-Unis utilisent le premier supercalculateur exascale mondial pour modéliser des supernovae et des réacteurs à fusion
3Interesting Engineering 

Les États-Unis utilisent le premier supercalculateur exascale mondial pour modéliser des supernovae et des réacteurs à fusion

Des scientifiques américains du laboratoire national d'Oak Ridge (ORNL), rattaché au Département de l'Énergie, ont utilisé Frontier, le superordinateur exascale le plus puissant du monde, pour modéliser la turbulence magnétohydrodynamique (MHD) dans les plasmas. Capable d'effectuer plus de deux quintillions de calculs par seconde, Frontier est classé troisième superordinateur le plus rapide au monde, derrière Aurora et El Capitan. L'équipe, dirigée par le doctorant Semih Kacmaz sous la supervision d'Eliu Huerta, scientifique computationnel à l'Argonne National Laboratory, a développé une approche en deux étapes combinant un opérateur neuronal informé par la physique et un modèle de diffusion génératif. Ensemble, ces deux systèmes d'IA produisent des prédictions de turbulences très détaillées en quelques secondes, avec une réduction des erreurs de plus de moitié par rapport aux méthodes conventionnelles. Ce résultat représente une avancée majeure dans un domaine que les physiciens considèrent comme l'un des plus récalcitrants de leur discipline. La turbulence MHD régit le comportement des gaz ionisés soumis à des champs magnétiques, des phénomènes omniprésents dans l'univers : éruptions solaires, explosions de supernovæ, magnétosphère terrestre. Les méthodes traditionnelles, comme l'approche Reynolds-Averaged Navier-Stokes (RANS), reposent sur des équations simplifiées qui lissent les détails fins et ne capturent pas toute la physique en jeu. Le nouveau cadre IA, lui, reconstruit les petits tourbillons et fluctuations rapides qui définissent les écoulements turbulents, ouvrant la voie à des modèles de supernovæ bien plus précis et à la conception de réacteurs à fusion nucléaire plus efficaces. "C'est la première fois que l'IA parvient à modéliser fidèlement la turbulence magnétisée dans des conditions aussi extrêmes", a déclaré Huerta. La turbulence dans les plasmas constitue un obstacle de longue date pour deux domaines stratégiques : l'astrophysique, qui cherche à comprendre les explosions stellaires, et la fusion nucléaire, dont la viabilité industrielle dépend en partie de la maîtrise du comportement des plasmas à haute énergie. Des projets comme ITER ou les réacteurs privés de Commonwealth Fusion Systems se heurtent précisément à ces instabilités. En mobilisant l'allocation de temps de calcul sur Frontier pour générer des milliers de simulations haute-fidélité servant à entraîner leurs modèles, les chercheurs ont démontré que les supercalculateurs exascale peuvent débloquer des problèmes jugés hors de portée. L'équipe prévoit désormais d'étendre le modèle à des simulations plasma en 3D complètes et à des environnements astrophysiques plus complexes, ce qui pourrait accélérer à la fois la recherche fondamentale sur la dynamique des étoiles et le développement applicatif de la fusion comme source d'énergie décarbonée.

UELes avancées dans la modélisation de la turbulence des plasmas bénéficient directement au projet ITER, dont le réacteur expérimental est en construction à Cadarache (France) et qui se heurte précisément aux instabilités plasma décrites dans l'article.

RecherchePaper
1 source
Google présente Simula : un framework de raisonnement pour générer des datasets synthétiques contrôlables dans des domaines IA spécialisés
4MarkTechPost 

Google présente Simula : un framework de raisonnement pour générer des datasets synthétiques contrôlables dans des domaines IA spécialisés

Google et l'École polytechnique fédérale de Lausanne (EPFL) ont présenté Simula, un nouveau cadre de génération de données synthétiques pensé pour les domaines spécialisés de l'IA, cybersécurité, raisonnement juridique, santé, où les données réelles sont rares, coûteuses ou inaccessibles pour des raisons de confidentialité. Contrairement aux approches classiques qui s'appuient sur des données de départ existantes ou des prompts artisanaux, Simula construit chaque jeu de données à partir de zéro, en traitant la génération de données comme un problème de conception de mécanismes. Le système décompose le processus en quatre étapes distinctes et contrôlables, pilotées par un modèle multimodal (appelé M3), et est capable de produire des jeux d'entraînement à très grande échelle, jusqu'à 512 000 exemples, tout en garantissant qualité, diversité et complexité simultanément. Le défi que Simula tente de résoudre est au cœur du prochain palier de développement de l'IA. Si les modèles généralistes ont pu s'entraîner sur l'immensité du web, les modèles spécialisés butent contre un mur : annoter manuellement des données dans des domaines pointus est lent, cher et sujet aux erreurs. Simplement demander à un grand modèle de langage de générer des données d'entraînement produit des résultats biaisés, répétitifs et peu complexes. Simula répond à cela par une architecture en taxonomies hiérarchiques, le système identifie d'abord les axes de variation d'un domaine (type d'attaque, classe de vulnérabilité, acteur menaçant pour la cybersécurité, par exemple), puis les développe en arbre pour couvrir les cas rares, avec une stratégie "Best-of-N" et une étape de critique automatique pour détecter les sous-catégories manquantes. La diversité locale est gérée par des "méta-prompts" générés à partir de combinaisons de nœuds taxonomiques, tandis qu'une fraction configurable d'exemples passe par une étape de complexification explicite. La publication de Simula s'inscrit dans une course plus large à la donnée synthétique de qualité, portée par des acteurs comme Microsoft, Meta ou des startups spécialisées, mais l'approche de Google se distingue par sa transparence méthodologique et son refus de dépendre de données sources existantes, ce qui ouvre la voie à des domaines où même les données de départ font défaut. L'enjeu est considérable : qui maîtrise la génération de données synthétiques contrôlées maîtrise potentiellement la capacité à entraîner des modèles surspécialisés sans contrainte réglementaire ni coût d'annotation. Google et l'EPFL ont publié leurs travaux via le blog de recherche Google, mais Simula n'est pas encore disponible en open source, la suite dépendra de la décision de Google d'ouvrir ou non l'accès à ce cadre à la communauté.

UEL'EPFL, partenaire européen clé de ce projet, positionne la recherche européenne en pointe sur la génération de données synthétiques, un enjeu stratégique pour les domaines sensibles (santé, droit) où les réglementations européennes comme le RGPD limitent fortement l'accès aux données réelles.

RecherchePaper
1 source