Aller au contenu principal
RechercheLe Big Data2sem

Yann LeCun lance AMI Labs et lève 1,03 milliard pour créer des modèles du monde

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Yann LeCun a cofondé AMI Labs, qui vient de lever 1,03 milliard de dollars pour une valorisation pré-monétaire de 3,5 milliards, avec le soutien de Nvidia, Samsung, Toyota Ventures et Temasek. L'entreprise vise à développer des "modèles du monde" basés sur l'architecture JEPA (Joint Embedding Predictive Architecture), une alternative aux LLMs capables d'apprendre directement de la réalité plutôt que du texte. Sans objectif de revenus à court terme, AMI Labs adoptera une approche de recherche fondamentale sur plusieurs années, avec Nabla comme premier partenaire de test.

Impact France/UE

La startup française Nabla, choisie comme premier partenaire de test d'AMI Labs, bénéficie d'un accès privilégié aux travaux pionniers du chercheur français Yann LeCun sur les modèles du monde, renforçant potentiellement sa position dans l'IA médicale européenne.

La nouvelle entreprise AMI Labs, cofondée par Yann LeCun après son départ de Meta, vient de boucler une levée de fonds. La jeune pousse a réuni 1,03 milliard de dollars, soit environ 890 millions d’euros. Ce, pour une valorisation pré-monétaire de 3,5 milliards de dollars. Selon TechCrunch , son ambition est de développer des “modèles du monde”. Le genre d’intelligence artificielle qui apprend directement de la réalité plutôt que de se limiter à analyser du texte. Pourquoi des modèles du monde ? Ce domaine reste encore peu peuplé comparé à l’IA générative . Mais selon Alexandre LeBrun, cette situation pourrait vite évoluer. Le dirigeant estime que ces modèles capables de comprendre le fonctionnement du monde réel pourraient devenir le prochain grand mot à la mode de l’industrie. Il a même plaisanté en affirmant que, d’ici quelques mois, de nombreuses entreprises se présenteront comme spécialistes des “world models” pour séduire les investisseurs. Cette orientation s’explique par les limites observées dans les grands modèles de langage . LeBrun partage d’ailleurs l’analyse de LeCun. Que les hallucinations produites par certains systèmes peuvent devenir dangereuses. Surtout dans des domaines sensibles comme la médecine. L’entreprise travaille donc sur une alternative basée sur l’architecture Joint Embedding Predictive Architecture , présentée par LeCun en 2022. Le projet reste cependant ambitieux et s’inscrit dans une démarche de recherche fondamentale. LeBrun explique qu’AMI Labs ne suit pas le modèle classique des start-ups lançant un produit en quelques mois. Transformer la théorie en applications concrètes pourrait prendre plusieurs années . Mais alors, quel est le plan d’AMI Labs ? Pour l’instant, AMI Labs ne cherche pas encore à générer des revenus . La priorité consiste à confronter ses modèles à des situations réelles afin d’améliorer leur compréhension du monde. Selon LeBrun, une IA capable d’interpréter la réalité ne peut pas rester enfermée dans un laboratoire. Elle doit être testée avec de vraies données et des cas d’usage concrets. Lorsque la technologie sera prête, l’entreprise s’appuiera sur ses partenaires pour explorer les premiers déploiements . Nabla sera la première société à expérimenter ces modèles, mais d’autres collaborations pourraient rapidement suivre. AMI Labs bénéficie également du soutien de plusieurs grandes entreprises et investisseurs institutionnels, parmi lesquels Nvidia , Samsung, Temasek ou encore Toyota Ventures. Les résultats concrets pourraient prendre du temps à apparaître . Malgré ce calendrier long, les investisseurs s’intéressent de plus en plus aux entreprises développant ce type d’IA. Certaines start-ups ont déjà attiré des financements importants. Comme World Labs, créée par Fei‑Fei Li, qui a récemment levé un milliard de dollars par exemple. Et puis, pas de panique ! Fidèle à la vision de LeCun, AMI Labs compte partager régulièrement ses avancées . L’entreprise prévoit de publier ses travaux de recherche et de rendre une partie importante de son code open source . Cette approche est devenue rare dans l’industrie. Cela dit, les fondateurs de la startup la jugent essentielle pour accélérer les progrès et créer un véritable écosystème autour de leurs travaux. AMI Labs, à quoi servira cette levée ? D’après Reuters , à l’origine, la société ne cherchait à lever qu’environ 500 millions d’euros . Mais finalement, elle a obtenu près de 890 millions d’euros, notamment grâce à une équipe expérimentée. Le laboratoire réunit plusieurs figures reconnues du secteur. On y retrouve par exemple Laurent Solly comme directeur des opérations, mais aussi des chercheurs tels que Saining Xie, Pascale Fung et Michael Rabbat. La levée de fonds a été menée par plusieurs investisseurs majeurs . Dont Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions. D’autres personnalités et entrepreneurs ont également participé au financement, parmi lesquels Tim Berners‑Lee, Mark Cuban, Xavier Niel et Eric Schmidt. Ce capital permettra principalement de financer la puissance de calcul et le recrutement de chercheurs spécialisés. L’entreprise prévoit de développer ses équipes sur quatre sites stratégiques. Où ? À Paris , où se trouve son siège, New York , Montréal , qui accueille son centre de recherche, et Singapour , afin d’être proche des talents et des clients asiatiques. Les applications potentielles d’une telle technologie Si les “world models” tiennent leurs promesses, ils pourront transformer plusieurs secteurs. Dans la robotique , par exemple, une machine équipée d’un modèle du monde serait à même d’interagir avec son environnement de manière beaucoup plus autonome. Au lieu d’exécuter uniquement des instructions programmées, elle pourrait analyser une situation , prévoir les conséquences d’une action et ajuster son comportement . Ce type de raisonnement serait particulièrement utile dans les entrepôts automatisés ou dans l’industrie. Le domaine des véhicules autonomes

À lire aussi

1MarkTechPost4h

NVIDIA AI présente PivotRL : un nouveau framework d'IA atteignant une haute précision agentique avec 4 fois moins de tours de simulation

NVIDIA a présenté PivotRL, un nouveau cadre d'entraînement pour les grands modèles de langage (LLM) conçu pour les tâches agentiques complexes comme l'ingénierie logicielle, la navigation web ou l'utilisation d'outils. Développé par des chercheurs de NVIDIA, PivotRL réduit le nombre de tours de simulation nécessaires d'un facteur 4 tout en maintenant une précision élevée. Le système repose sur deux mécanismes clés : le « Pivot Filtering », qui identifie les étapes d'entraînement les plus instructives, et les « Functional Rewards », qui évaluent les actions par équivalence fonctionnelle plutôt que par correspondance exacte de texte. Ce framework s'attaque à un problème central dans le domaine : les méthodes de fine-tuning supervisé (SFT) sont peu coûteuses mais généralisent mal hors de leur domaine d'entraînement, tandis que l'apprentissage par renforcement de bout en bout (E2E RL) offre une meilleure généralisation mais exige des ressources de calcul considérables. PivotRL cherche à combiner le meilleur des deux approches en opérant sur des trajectoires SFT existantes, concentrant le calcul uniquement sur les états d'entraînement qui fournissent le signal d'apprentissage le plus fort. L'entraînement post-déploiement des LLM pour des agents autonomes est devenu l'un des défis majeurs de l'IA en 2025-2026, à mesure que l'industrie cherche à déployer des systèmes capables d'exécuter des tâches longues et complexes de manière fiable et économique.

RecherchePaper
1 source
2Les Numériques IA6h

Actualité : OpenAI ferme brutalement Sora, l'usine à slop la plus chère de l'histoire de l'IA

OpenAI a annoncé le 24 mars 2026 la fermeture brutale de Sora, son outil d'IA pour créer des vidéos, décrite comme l'usine à slop la plus coûteuse de l'histoire de l'IA. Aucune justification n'est donnée officiellement ; une communication ultérieure devrait préciser le calendrier et les mesures pour sauvegarder les contenus utilisateur.

UELa fermeture soudaine de Sora par OpenAI affecte potentiellement les utilisateurs et développeurs européens qui ont investi dans cet outil d'IA pour la création de vidéos.

RechercheActu
1 source
3MarkTechPost14h

L'attention paginée dans les grands modèles de langage

Dans les LLMs à grande échelle, la mémoire GPU est le principal goulot d'étranglement : chaque requête réserve un bloc fixe pour le cache KV basé sur la longueur maximale de séquence (2048 tokens, soit 1024 Mo), alors qu'en moyenne seulement 24,4 % de cet espace est réellement utilisé — représentant 75 Go gaspillés pour 100 utilisateurs simultanés. Le Paged Attention résout ce problème en découpant le cache KV en petits blocs alloués dynamiquement (16 tokens par page, inspiré de la mémoire virtuelle), permettant aussi à plusieurs requêtes partageant le même prompt de partager la mémoire via un mécanisme Copy-on-Write. Cette approche améliore drastiquement l'efficacité mémoire et le débit, mesurée ici sur des batchs de 10 à 200 requêtes simultanées.

RecherchePaper
1 source
4MarkTechPost17h

TinyLoRA : une méthode d'affinage à 13 paramètres qui atteint 91,8 % sur GSM8K avec Qwen2.5-7B

Des chercheurs de Meta FAIR, Cornell et Carnegie Mellon ont présenté TinyLoRA, une méthode de fine-tuning extrêmement compacte atteignant 91,8 % sur le benchmark GSM8K avec seulement 13 paramètres (26 octets en bf16) sur un modèle Qwen2.5-7B. La clé est l'utilisation du reinforcement learning (GRPO) plutôt que le fine-tuning supervisé, qui nécessite 100 à 1 000 fois plus de paramètres pour des performances équivalentes. TinyLoRA exploite une décomposition SVD tronquée des poids gelés projetée via un vecteur entraînable de très faible dimension, permettant un partage extrême des paramètres entre toutes les couches.

RecherchePaper
1 source