Aller au contenu principal
RechercheMarkTechPost2h

Le nouveau projet de recherche LeWorldModel (LeWM) de Yann LeCun cible l'effondrement JEPA dans la modélisation prédictive du monde par pixels

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Yann LeCun et des chercheurs de Mila, NYU, Samsung SAIL et Brown University ont développé LeWorldModel (LeWM), la première architecture JEPA capable de s'entraîner de bout en bout directement depuis des pixels bruts sans effondrement des représentations. LeWM utilise seulement deux termes de perte — une prédiction d'embeddings et un régulariseur gaussien (SIGReg) — en lieu et place des heuristiques complexes habituelles (EMA, gradients gelés). Le modèle atteint une efficacité remarquable : 200× moins de tokens qu'un modèle concurrent (DINO-WM) et une planification 48× plus rapide (0,98s contre 47s).

Articles similaires

1Le Monde Pixels3h

« Que deviendront les intelligences artificielles si elles doivent sans cesse utiliser les mêmes données ? »

L'article soulève la question de l'effondrement des modèles d'IA face à la saturation des données d'entraînement, notamment lorsque ces modèles commencent à s'entraîner sur du contenu généré par d'autres IA. Ce phénomène, illustré par des deepfakes comme une bagarre fictive entre Brad Pitt et Tom Cruise, pose un risque de dégradation progressive de la qualité et de la diversité des outputs. Le problème central est un cercle vicieux où les IA "s'auto-contaminent" avec leurs propres productions. --- Note : l'article fourni est très partiel (titre + légende d'image uniquement). Si tu as le corps complet de l'article, je peux faire un résumé plus précis.

UELes chercheurs et régulateurs européens s'interrogent sur la durabilité des modèles entraînés sur des données synthétiques, un enjeu clé pour les politiques d'IA de l'UE.

RecherchePaper
1 source
2HuggingFace Blog6h

Un nouveau cadre d'évaluation pour les agents vocaux (EVA)

Le contenu de l'article est manquant — seul le titre a été fourni. Peux-tu partager le texte complet de l'article ?

RecherchePaper
1 source
3MarkTechPost6h

Les nouveaux hyperagents de Meta AI ne font pas que résoudre des tâches : ils réécrivent les règles de leur apprentissage

Des chercheurs de l'Université de Colombie-Britannique, NYU, Edinburgh et Meta (FAIR + Meta Superintelligence Labs) ont introduit les Hyperagents, un nouveau framework d'auto-amélioration récursive où l'agent peut modifier non seulement ses performances sur une tâche, mais aussi le mécanisme même qui génère ces améliorations. Contrairement au Darwin Gödel Machine (DGM) qui reposait sur un méta-agent fixe et artisanal, le DGM-H intègre agent de tâche et méta-agent dans un seul programme entièrement éditable, éliminant la nécessité d'aligner le domaine de la tâche avec celui de l'auto-modification. Le système a été testé avec succès sur des domaines variés — code, revue d'articles scientifiques, conception de récompenses en robotique et notation de mathématiques olympiques — démontrant une amélioration au-delà des optima locaux.

UEL'Université d'Édimbourg figure parmi les co-auteurs, ce qui illustre la contribution européenne à cette avancée, mais l'impact opérationnel direct sur la France ou l'UE reste inexistant à ce stade.

RecherchePaper
1 source