Aller au contenu principal
RechercheApple Machine Learning21h

Entraînement par anticipation latente pour les Transformers

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Des chercheurs ont présenté une nouvelle méthode d'entraînement pour les modèles de langage appelée « Latent Lookahead Training », acceptée au workshop ICLR 2026 sur la réflexion latente et implicite. Cette approche s'attaque à une limitation fondamentale des modèles autorégressifs actuels : la prédiction token par token, qui oblige le modèle à se figer sur un choix à chaque étape sans pouvoir explorer plusieurs continuations possibles. De plus, le calcul est distribué de manière uniforme entre tous les tokens, même quand certains sont bien plus complexes que d'autres. Cette contrainte n'est pas anodine — elle bride directement la capacité des modèles à planifier ou à « réfléchir » avant de s'engager dans une direction. En permettant au modèle d'anticiper dans un espace latent avant de produire chaque token, le Latent Lookahead vise à allouer plus de calcul là où c'est nécessaire et à ouvrir la porte à une forme de délibération interne, sans passer par le Chain-of-Thought explicite. La recherche s'inscrit dans un mouvement plus large visant à dépasser les limites du raisonnement en chaîne visible, en explorant comment les modèles peuvent développer une forme de pensée implicite plus flexible et efficace.

This paper was accepted at the Workshop on Latent & Implicit Thinking – Going Beyond CoT Reasoning 2026 at ICLR. Autoregressive language models trained with next-token prediction generate text by sampling one discrete token at a time. Although very scalable, this objective forces the model to commit at every step, preventing it from exploring or reflecting upon multiple plausible continuations. Furthermore, the compute allocation across tokens is uniform; every token is formed based on a single forward-pass, potentially limiting the model’s expressiveness in cases where difficult tokens…

À lire aussi

1Ars Technica AI3h

Google : TurboQuant réduit la mémoire des modèles d'IA sans perte de qualité

Google Research a dévoilé TurboQuant, un nouvel algorithme de compression conçu pour réduire l'empreinte mémoire des grands modèles de langage (LLM) tout en améliorant leur vitesse. Selon les premiers résultats publiés par Google, TurboQuant permet une réduction de la mémoire jusqu'à 6 fois et un gain de performance jusqu'à 8 fois dans certains tests, sans dégradation mesurable de la qualité des sorties. TurboQuant cible spécifiquement le cache clé-valeur, une sorte de "mémo numérique" que les LLM utilisent pour stocker des informations déjà calculées et éviter de les retraiter. Ce cache stocke des vecteurs haute dimension — des représentations mathématiques du sens des mots et des phrases — qui peuvent contenir des centaines, voire des milliers d'embeddings. Plus ces vecteurs sont complexes, plus ils occupent de mémoire, créant un goulot d'étranglement qui ralentit les modèles et alourdit leur déploiement. Jusqu'ici, les techniques de quantification classiques permettaient bien de compresser ces modèles en abaissant leur précision, mais au prix d'une baisse notable de la qualité des réponses. TurboQuant prétend résoudre ce compromis en maintenant la précision malgré la compression. La mémoire est l'une des ressources les plus contraignantes dans le déploiement des IA génératives, tant en centre de données que sur les appareils grand public. Une compression efficace sans perte de qualité représente un enjeu majeur pour rendre ces modèles plus accessibles et moins coûteux à faire tourner.

RecherchePaper
1 source
2Numerama6h

Google a peut-être réglé la crise de la mémoire vive (RAM) avec un algorithme

Google a dévoilé TurboQuant, un nouvel algorithme de quantification capable de diviser par six les besoins en mémoire vive des modèles d'intelligence artificielle. Cette avancée mathématique s'attaque directement à l'un des principaux goulots d'étranglement du secteur : la consommation colossale de RAM exigée par les IA modernes. L'impact potentiel est considérable. En réduisant drastiquement l'empreinte mémoire, TurboQuant pourrait permettre de faire tourner des modèles bien plus puissants sur du matériel existant, démocratisant ainsi l'accès à des IA avancées sans nécessiter d'investissements matériels massifs. L'essor des grands modèles de langage a provoqué une pression sans précédent sur les infrastructures GPU et CPU. La crise de la RAM est devenue un enjeu stratégique majeur pour l'ensemble de l'industrie.

UEUne réduction par six des besoins en RAM des modèles IA pourrait permettre aux entreprises et laboratoires européens de déployer des modèles plus puissants sur leur infrastructure existante, abaissant la barrière d'entrée pour la recherche et l'industrie IA en Europe.

RecherchePaper
1 source
3MIT Technology Review7h

Cette startup veut changer la façon dont les mathématiciens font des maths

Axiom Math, une startup basée à Palo Alto en Californie, a lancé un outil gratuit baptisé Axplorer, conçu pour aider les mathématiciens à découvrir des patterns mathématiques susceptibles de débloquer des problèmes restés sans solution depuis des décennies. L'outil est une refonte de PatternBoost, développé en 2024 par François Charton — aujourd'hui chercheur chez Axiom — lorsqu'il travaillait encore chez Meta. Là où PatternBoost nécessitait un supercalculateur, Axplorer tourne sur un simple Mac Pro. L'an dernier, PatternBoost avait permis de résoudre un problème réputé difficile en théorie des graphes, le problème des quatre-cycles de Turán — un défi qui consiste à maximiser le nombre de connexions entre des points sans former de boucles à quatre nœuds. Axiom Math a également utilisé un autre de ses outils, AxiomProver, pour résoudre quatre problèmes mathématiques majeurs en 2025. La démarche d'Axiom s'inscrit dans un mouvement plus large : rendre accessibles des outils d'IA puissants à l'ensemble de la communauté mathématique, et non plus seulement aux équipes disposant de clusters GPU. C'est précisément ce que souligne la fondatrice et PDG de la startup, Carina Hong : les mathématiques ne se résument pas à trouver des solutions à des problèmes existants, elles sont avant tout exploratoires. Charton, lui, est sceptique face aux récents succès des grands modèles de langage comme GPT-5 sur des problèmes ouverts — notamment ceux laissés par le mathématicien Paul Erdős. Selon lui, ces victoires concernent des problèmes peu étudiés, pas les grands défis sur lesquels les meilleurs esprits ont travaillé pendant des années. Axplorer adopte une approche différente : l'utilisateur soumet un exemple, l'outil en génère d'autres similaires, l'utilisateur sélectionne les plus prometteurs, et le cycle recommence — une logique proche de celle d'AlphaEvolve de Google DeepMind, mais accessible à tous. Les avancées en mathématiques ont des répercussions profondes sur l'informatique, l'IA de nouvelle génération et la sécurité internet. Cette initiative s'inscrit dans le cadre du programme expMath (Exponentiating Mathematics) lancé par la DARPA, l'agence de recherche avancée du Pentagone, pour encourager l'adoption des outils d'IA dans la recherche mathématique fondamentale.

UEL'outil gratuit Axplorer est accessible à toute la communauté mathématique européenne, et son co-créateur François Charton est un chercheur français.

RecherchePaper
1 source
4MarkTechPost12h

NVIDIA AI présente PivotRL : un nouveau framework d'IA atteignant une haute précision agentique avec 4 fois moins de tours de simulation

NVIDIA a présenté PivotRL, un nouveau cadre d'entraînement pour les grands modèles de langage (LLM) conçu pour les tâches agentiques complexes comme l'ingénierie logicielle, la navigation web ou l'utilisation d'outils. Développé par des chercheurs de NVIDIA, PivotRL réduit le nombre de tours de simulation nécessaires d'un facteur 4 tout en maintenant une précision élevée. Le système repose sur deux mécanismes clés : le « Pivot Filtering », qui identifie les étapes d'entraînement les plus instructives, et les « Functional Rewards », qui évaluent les actions par équivalence fonctionnelle plutôt que par correspondance exacte de texte. Ce framework s'attaque à un problème central dans le domaine : les méthodes de fine-tuning supervisé (SFT) sont peu coûteuses mais généralisent mal hors de leur domaine d'entraînement, tandis que l'apprentissage par renforcement de bout en bout (E2E RL) offre une meilleure généralisation mais exige des ressources de calcul considérables. PivotRL cherche à combiner le meilleur des deux approches en opérant sur des trajectoires SFT existantes, concentrant le calcul uniquement sur les états d'entraînement qui fournissent le signal d'apprentissage le plus fort. L'entraînement post-déploiement des LLM pour des agents autonomes est devenu l'un des défis majeurs de l'IA en 2025-2026, à mesure que l'industrie cherche à déployer des systèmes capables d'exécuter des tâches longues et complexes de manière fiable et économique.

RecherchePaper
1 source