Aller au contenu principal
Les nouveaux hyperagents de Meta AI ne font pas que résoudre des tâches : ils réécrivent les règles de leur apprentissage
RechercheMarkTechPost6sem

Les nouveaux hyperagents de Meta AI ne font pas que résoudre des tâches : ils réécrivent les règles de leur apprentissage

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta, en collaboration avec des chercheurs de l'Université de Colombie-Britannique, du Vector Institute, de l'Université d'Édimbourg, de NYU et des Meta Superintelligence Labs, vient de franchir une étape majeure dans la quête de l'auto-amélioration récursive des IA. Leur nouveau framework, les Hyperagents, ne se contente plus d'optimiser les performances d'un agent sur une tâche donnée — il permet à l'agent de réécrire les mécanismes mêmes qui gouvernent son propre apprentissage. C'est ce que les chercheurs appellent la modification métacognitive.

Le verrou que ce travail lève est fondamental. Les systèmes précédents, dont le Darwin Gödel Machine (DGM), souffraient d'un double défaut : leur méta-agent — la couche chargée d'améliorer l'agent principal — était fixe, artisanal, et supposait un alignement entre la tâche à résoudre et la capacité de modification du code. Ce paradigme fonctionnait pour le code, mais s'effondrait dès qu'on sortait de ce domaine. En poésie ou en robotique, savoir mieux écrire des vers n'aide pas à analyser et modifier du code source. Les Hyperagents suppriment cette contrainte en fusionnant agent de tâche et méta-agent dans un seul programme entièrement modifiable, y compris la procédure d'amélioration elle-même.

Les résultats expérimentaux sont nets. En conception de récompenses pour la robotique, le score du système est passé de 0,060 à 0,372 — l'agent ayant découvert de manière autonome qu'un robot quadrupède maximise mieux sa hauteur en sautant qu'en se tenant simplement debout, évitant ainsi un optimum local évident. En évaluation d'articles scientifiques, la performance est passée de 0,0 à 0,710, l'agent construisant de lui-même des pipelines d'évaluation multi-étapes avec listes de critères explicites — bien au-delà de simples instructions comportementales. Ces gains ont été observés également en mathématiques olympiques et en tâches de codage.

La découverte la plus structurante pour la recherche en IA est peut-être la transférabilité des améliorations méta-niveau : les capacités d'auto-modification acquises dans un domaine semblent généralisables à d'autres, rompant avec l'hypothèse d'un alignement domaine-tâche. Cela ouvre la voie à des systèmes capables d'apprendre à apprendre de façon véritablement générale — une perspective qui rapproche concrètement le domaine du Graal théorique que représente l'auto-amélioration ouverte et récursive.

Impact France/UE

L'Université d'Édimbourg figure parmi les co-auteurs, ce qui illustre la contribution européenne à cette avancée, mais l'impact opérationnel direct sur la France ou l'UE reste inexistant à ce stade.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1VentureBeat AI 

Meta présente les 'hyperagents' pour une IA auto-améliorante sur des tâches non techniques

Des chercheurs de Meta et de plusieurs universités ont présenté un nouveau cadre d'agents autonomes baptisé "hyperagents", conçu pour surmonter les limites des systèmes d'IA auto-améliorants actuels. Contrairement aux architectures existantes, comme la Darwin Gödel Machine (DGM) de Sakana AI, qui ne fonctionnent efficacement que sur des tâches de programmation, les hyperagents peuvent réécrire et optimiser leur propre logique de résolution de problèmes dans des domaines non techniques comme la robotique, l'analyse documentaire ou la revue d'articles scientifiques. Le système est dit "entièrement autoréférentiel" : il peut analyser, évaluer et modifier n'importe quelle partie de lui-même sans contraintes liées à sa configuration initiale. Les hyperagents inventent de façon autonome des capacités génériques comme la mémoire persistante ou le suivi automatisé des performances, sans intervention humaine. L'enjeu est considérable pour les entreprises qui cherchent à déployer des agents IA dans des environnements de production réels, où les tâches sont imprévisibles et variables. Jusqu'ici, les systèmes auto-améliorants étaient bridés par un "meta-agent" statique, conçu par des ingénieurs humains et incapable d'évoluer plus vite que ces derniers ne pouvaient le maintenir. Jenny Zhang, co-auteure de l'article, résume le problème ainsi : "Chaque fois que quelque chose change ou se casse, une personne doit intervenir pour mettre à jour les règles ou la logique." Les hyperagents brisent ce "mur de maintenance" en découplant la capacité à améliorer les tâches de la capacité à modifier le code sous-jacent, deux compétences fondamentalement distinctes. Le résultat est un système qui non seulement s'améliore sur les tâches, mais optimise également le cycle d'auto-amélioration lui-même, accélérant les progrès de façon exponentielle avec moins de prompt engineering manuel. Ce travail s'inscrit dans une course plus large à l'automatisation de l'ingénierie des agents IA, un domaine en pleine effervescence depuis les succès de DGM sur les benchmarks de programmation en 2025. La DGM avait démontré qu'une amélioration récursive et ouverte était techniquement réalisable, mais uniquement lorsque la tâche elle-même était du code. Meta franchit une étape supplémentaire en généralisant ce principe à des domaines où l'évaluation des performances et la réécriture du comportement requièrent des compétences radicalement différentes, comme l'analyse textuelle subjective ou l'exploration de données métier. Si les hyperagents tiennent leurs promesses à l'échelle, ils pourraient réduire drastiquement la dépendance aux équipes d'ingénierie spécialisées pour adapter les agents à chaque nouveau contexte, ouvrant la voie à des systèmes véritablement capables de s'adapter seuls aux environnements d'entreprise en constante évolution.

RecherchePaper
1 source
Les hyperagents de Meta progressent dans leurs tâches et dans leur capacité à s'améliorer
2The Decoder 

Les hyperagents de Meta progressent dans leurs tâches et dans leur capacité à s'améliorer

Des chercheurs de Meta, en collaboration avec plusieurs universités, ont développé ce qu'ils appellent des « hyperagents » — des systèmes d'IA capables non seulement d'accomplir des tâches, mais aussi d'optimiser activement le mécanisme même par lequel ils s'améliorent. Cette architecture dépasse le cadre classique de l'apprentissage par renforcement ou du fine-tuning : l'agent agit sur deux niveaux simultanément, en résolvant des problèmes tout en affinant sa propre stratégie d'amélioration. Les résultats ont été présentés dans le cadre de travaux impliquant plusieurs équipes académiques aux côtés de Meta. Cette capacité à « s'améliorer en s'améliorant » représente un changement de paradigme potentiel dans la conception des systèmes d'IA agentiques. Là où les agents actuels nécessitent des cycles humains de rétroaction ou de supervision pour progresser, les hyperagents pourraient théoriquement accélérer leur propre développement de manière autonome. L'approche fonctionne sur plusieurs domaines de tâches différents, ce qui suggère une généralisation plutôt qu'une spécialisation étroite — un critère déterminant pour une adoption plus large dans des applications réelles. Ce travail s'inscrit dans une course intense entre les grands laboratoires pour développer des agents IA toujours plus autonomes. Meta, qui a misé massivement sur l'IA agentique avec ses modèles Llama et ses recherches en raisonnement, cherche à rattraper OpenAI et Google sur ce terrain. Le concept d'IA auto-accélératrice soulève également des questions profondes sur la sécurité et la contrôlabilité : si un système peut modifier sa propre dynamique d'apprentissage, la supervision humaine devient structurellement plus difficile à maintenir.

RecherchePaper
1 source
LaCy : ce que les petits modèles de langage peuvent et doivent apprendre ne se réduit pas à une question de perte
3Apple Machine Learning 

LaCy : ce que les petits modèles de langage peuvent et doivent apprendre ne se réduit pas à une question de perte

Une étude présentée au workshop "Memory for LLM-Based Agentic Systems" de la conférence ICLR 2025 s'attaque à une question fondamentale pour les petits modèles de langage (SLM) : que doivent-ils apprendre lors du préentraînement, et que doivent-ils déléguer à des sources externes ? Les chercheurs ont développé LaCy, un cadre théorique et expérimental qui questionne la fonction de perte standard utilisée pour entraîner ces modèles, en montrant qu'optimiser uniquement la vraisemblance des données n'est pas suffisant pour des SLM efficaces et fiables. Le problème est structurel : contrairement aux grands modèles comme GPT-4 ou Llama 3, les SLM disposent d'une capacité paramétrique limitée, ce qui les contraint à faire des choix sur les connaissances à mémoriser. Sans mécanisme adapté, ils génèrent des faits incorrects plutôt que d'admettre leur ignorance et de consulter une base de données ou un modèle plus puissant. LaCy propose de reformuler ce que le modèle "devrait" apprendre en tenant compte explicitement de la disponibilité de sources externes, comme des documents récupérés par RAG ou des API spécialisées. Ce travail s'inscrit dans la tendance croissante à déployer des agents IA embarqués sur des appareils à faible puissance, où les gros modèles ne peuvent pas tourner localement. Alors que des entreprises comme Google, Apple ou Mistral misent sur des SLM pour l'edge computing et les assistants embarqués, la question de la frontière entre mémoire paramétrique et mémoire externe devient stratégique. LaCy ouvre la voie à des entraînements plus ciblés, où le modèle apprend à savoir ce qu'il ne sait pas.

UEMistral, entreprise française en pointe sur les petits modèles pour l'edge computing, est directement concernée par les conclusions de LaCy sur l'optimisation de l'entraînement des SLM.

RecherchePaper
1 source
Réseau de Rodrigues pour l'apprentissage des actions robotiques
4arXiv cs.RO 

Réseau de Rodrigues pour l'apprentissage des actions robotiques

Des chercheurs en robotique et apprentissage automatique ont proposé une nouvelle architecture neuronale baptisée RodriNet, décrite dans un article pré-publié sur arXiv (arXiv:2506.02618). L'équipe introduit d'abord un composant fondamental, le Neural Rodrigues Operator, une généralisation apprenante de l'opération classique de cinématique directe, qui permet d'encoder la structure géométrique des systèmes articulés directement dans le calcul neuronal. Sur deux tâches synthétiques de prédiction cinématique et de mouvement, RodriNet affiche des gains significatifs par rapport aux architectures standard comme les MLPs et les Transformers. Les auteurs valident ensuite l'approche sur deux applications concrètes : l'apprentissage par imitation sur des bancs d'essai robotiques en combinant RodriNet avec la Diffusion Policy, et la reconstruction 3D d'une main à partir d'une seule image. L'enjeu central est celui du biais inductif : les réseaux classiques traitent les actions articulées comme des vecteurs numériques quelconques, sans tenir compte du fait qu'un bras robotique ou une main humaine obéissent à des contraintes géométriques précises, celles de la cinématique. En intégrant ces contraintes directement dans l'architecture, RodriNet apprend plus efficacement à partir de données limitées et généralise mieux aux configurations inédites. Pour l'industrie de la robotique, cela représente une voie vers des politiques de contrôle plus robustes sans nécessiter de jeux de données massifs, ce qui est particulièrement précieux dans le cadre du déploiement de robots en environnements réels. Cette contribution s'inscrit dans une tendance plus large visant à réintroduire des connaissances physiques et géométriques dans les architectures d'apprentissage profond, après une décennie dominée par des modèles généralistes sans a priori structurels. La Diffusion Policy, utilisée ici comme cadre d'imitation, est elle-même une approche récente qui modélise les trajectoires robotiques comme des processus de diffusion. Le couplage de ces deux innovations suggère que la prochaine frontière en robotique apprenante passe par des architectures hybrides, à la fois flexibles et ancrées dans la physique du corps articulé.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour