Aller au contenu principal
RechercheApple Machine Learning1j

Flots normalisants avec débruitage itératif

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont introduit iTARFlow (iterative TARFlow), une nouvelle architecture de modèle génératif appartenant à la famille des flux normalisants (Normalizing Flows). Contrairement aux modèles de diffusion aujourd'hui dominants, iTARFlow conserve un objectif d'entraînement entièrement basé sur la vraisemblance, calculée de bout en bout sans approximations. Lors de la génération d'images, le modèle combine génération autorégressive et débruitage itératif, une approche hybride inédite pour cette classe de méthodes. Ces travaux s'appuient directement sur TARFlow, un flux normalisant récent qui avait démontré des performances compétitives sur des benchmarks d'images standard.

Cette avancée est significative pour un domaine longtemps éclipsé par les modèles de diffusion et les GAN. Les flux normalisants offrent un avantage théorique majeur : la capacité à calculer exactement la probabilité d'une donnée, ce qui les rend précieux pour la détection d'anomalies, la compression et l'évaluation rigoureuse de modèles. En comblant le fossé de performance qui pénalisait ces méthodes, iTARFlow les rend plus compétitifs pour des applications réelles en synthèse d'images.

Les flux normalisants avaient suscité un fort intérêt entre 2018 et 2020 avant de perdre du terrain face aux modèles de diffusion. TARFlow avait relancé cette famille en montrant que des architectures transformer autorégressive pouvaient rivaliser avec les approches modernes. iTARFlow prolonge cette dynamique en intégrant le débruitage itératif au processus de génération, une technique empruntée aux modèles de diffusion, tout en préservant les garanties mathématiques propres aux flux normalisants. Cette synthèse pourrait marquer le retour en force d'une approche plus interprétable et rigoureuse dans le paysage de la génération d'images.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

STARFlow-V : modélisation vidéo générative de bout en bout par flux normalisants
1Apple Machine Learning 

STARFlow-V : modélisation vidéo générative de bout en bout par flux normalisants

Des chercheurs ont présenté STARFlow-V, un nouveau modèle génératif de vidéo fondé sur les flux normalisants (normalizing flows), une approche distincte des architectures à diffusion qui dominent aujourd'hui le secteur. Le système se distingue par trois propriétés clés : un apprentissage bout-en-bout, une prédiction causale robuste et une estimation native de la vraisemblance, autant de caractéristiques difficiles à obtenir avec les pipelines de diffusion actuels. Le modèle cible la génération vidéo, un domaine où la complexité spatiotemporelle et le coût computationnel sont nettement supérieurs à ceux de la génération d'images. L'enjeu est significatif pour l'industrie : les flux normalisants permettent un calcul exact de la vraisemblance, ce qui ouvre la voie à une meilleure évaluation des modèles, à un contrôle plus précis de la génération et potentiellement à une inférence plus efficace. La prédiction causale garantit que chaque image générée dépend uniquement des frames précédentes, renforçant la cohérence temporelle des vidéos produites. Ces propriétés intéressent aussi bien les chercheurs en apprentissage automatique que les équipes produit travaillant sur des applications temps réel ou interactives. Les flux normalisants avaient largement cédé la place aux modèles de diffusion et aux GAN au cours des dernières années, mais des progrès récents sur la génération d'images ont relancé l'intérêt pour cette famille de modèles. Des systèmes comme Sora (OpenAI), Gen-3 (Runway) ou Wan (Alibaba) reposent tous sur la diffusion, et STARFlow-V représente une tentative sérieuse de démontrer qu'une alternative existe. Si les résultats se confirment à grande échelle, ce travail pourrait diversifier les paradigmes architecturaux dans un domaine jusqu'ici peu contesté.

RecherchePaper
1 source
HeiSD : décodage spéculatif hybride pour modèles vision-langage-action incarnés avec prise en compte de la cinématique
2arXiv cs.RO 

HeiSD : décodage spéculatif hybride pour modèles vision-langage-action incarnés avec prise en compte de la cinématique

Des chercheurs ont publié HeiSD, un nouveau cadre d'accélération pour les modèles Vision-Langage-Action (VLA) utilisés en robotique, présenté dans un article arXiv (2603.17573). Les modèles VLA sont devenus la solution dominante pour le contrôle de robots : ils combinent vision, compréhension du langage naturel et génération d'actions motrices. Leur principal talon d'Achille reste une vitesse d'inférence trop lente pour de nombreuses applications temps réel. HeiSD s'appuie sur une approche hybride du décodage spéculatif, une technique qui anticipe les tokens suivants pour accélérer la génération, en fusionnant deux familles de méthodes complémentaires : le décodage basé sur un modèle brouillon et le décodage par récupération en mémoire. Les résultats annoncés atteignent un facteur d'accélération de 2,45x sur des benchmarks en simulation, et de 2,06x à 2,41x dans des scénarios réels, tout en maintenant un taux de succès élevé sur les tâches testées. Cet gain de vitesse est significatif pour l'industrie de la robotique, où la latence entre la perception et l'action conditionne directement la sécurité et l'utilisabilité des robots. Un robot qui doit attendre plusieurs secondes entre chaque décision est inutilisable dans un entrepôt logistique ou une salle d'opération. En doublant approximativement la vitesse d'inférence sans dégrader les performances, HeiSD rapproche les VLA d'un déploiement industriel viable, sans nécessiter de matériel supplémentaire ni de réentraînement des modèles sous-jacents. Le décodage spéculatif est une piste de recherche active depuis l'explosion des grands modèles de langage, mais son application aux modèles robotiques posait des défis spécifiques : les erreurs en cascade lors du rejet de tokens et la difficulté à calibrer automatiquement la frontière entre les deux stratégies hybrides. HeiSD résout ces problèmes via un mécanisme de vérification sélective, une stratégie d'acceptation assouplie au niveau des séquences, et une métrique de fusion basée sur la cinématique du robot pour piloter automatiquement le découpage hybride. Ce travail s'inscrit dans une course plus large à l'efficacité des VLA, où des acteurs comme Google DeepMind (RT-2) et Physical Intelligence cherchent eux aussi à rendre ces modèles suffisamment rapides pour un usage en production.

RechercheActu
1 source
Metis d'Alibaba réduit les appels d'outils IA redondants de 98 % à 2 %, avec une meilleure précision
3VentureBeat AI 

Metis d'Alibaba réduit les appels d'outils IA redondants de 98 % à 2 %, avec une meilleure précision

Des chercheurs d'Alibaba ont publié un cadre d'apprentissage par renforcement appelé HDPO (Hierarchical Decoupled Policy Optimization), conçu pour entraîner des agents IA à mieux décider quand utiliser des outils externes et quand s'appuyer sur leurs propres connaissances. Appliqué à leur modèle multimodal Metis, ce framework réduit les appels d'outils redondants de 98 % à seulement 2 %, tout en améliorant la précision sur les benchmarks de référence du secteur. L'enjeu est concret : les agents IA actuels ont tendance à invoquer systématiquement des utilitaires externes comme la recherche web ou l'exécution de code, même lorsque la question posée ne le nécessite pas. Chaque appel inutile crée un goulet d'étranglement de traitement séquentiel, alourdit les coûts d'API et injecte du bruit dans le contexte du modèle, ce qui dégrade la qualité du raisonnement final. Ce problème touche directement les entreprises qui déploient des agents IA en production : des systèmes techniquement capables deviennent lents et coûteux à opérer, sans que cela se traduise par de meilleures réponses. Les approches précédentes tentaient de corriger ce comportement en combinant précision et efficacité dans un seul signal de récompense, mais cette conception créait un dilemme d'optimisation insoluble. Une pénalité trop forte sur l'usage des outils rend le modèle trop conservateur et nuit à sa précision sur les tâches complexes, tandis qu'une pénalité trop faible ne change rien au comportement. Pire, ce signal mélangé crée une ambiguïté sémantique : une réponse incorrecte sans aucun appel d'outil pouvait obtenir la même récompense qu'une réponse correcte avec un usage excessif. HDPO résout ce paradoxe en séparant les deux objectifs dans des canaux d'optimisation indépendants. Le canal de précision maximise la justesse des réponses sur l'ensemble des rollouts, tandis que le canal d'efficacité minimise les appels superflus. Les deux signaux ne sont combinés qu'à la dernière étape du calcul de la perte, et surtout, l'efficacité reste conditionnelle à la précision : une réponse incorrecte n'est jamais récompensée simplement parce qu'elle a été rapide ou économe en appels. Cette décorrélation offre au modèle des gradients d'apprentissage propres pour chaque objectif, sans interférence. Alibaba s'inscrit dans une course intense au développement d'agents IA fiables et économiques, où la maîtrise du coût opérationnel est devenue aussi stratégique que la performance brute. HDPO représente une avancée méthodologique qui pourrait influencer la façon dont l'ensemble de l'industrie entraîne ses agents à instrumenter le monde extérieur avec discernement plutôt qu'automatisme.

RecherchePaper
1 source
Identification d'objets hors distribution pour la segmentation d'anomalies LiDAR 3D
4arXiv cs.RO 

Identification d'objets hors distribution pour la segmentation d'anomalies LiDAR 3D

Des chercheurs ont publié fin avril 2026 une nouvelle méthode pour la segmentation d'anomalies en 3D à partir de données LiDAR, baptisée LIDO, accompagnée de nouveaux jeux de données mixtes réels-synthétiques. L'approche opère directement dans l'espace des caractéristiques (feature space) pour modéliser la distribution des classes connues et en déduire ce qui est anormal, sans recourir aux techniques de post-traitement empruntées à la vision 2D qui dominaient jusqu'ici le domaine. Le code source et les datasets sont disponibles publiquement sur la page du projet. Détecter des objets inconnus sur la route constitue un enjeu de sécurité critique pour les véhicules autonomes et les robots de perception : un camion renversé, un animal inattendu ou un obstacle inhabituel ne figurent pas dans les catégories apprises à l'entraînement, mais doivent absolument être signalés. Or, les méthodes existantes en 3D se contentaient d'adapter des techniques conçues pour la 2D, avec des performances limitées. La méthode proposée ici améliore l'état de l'art sur le seul dataset réel disponible publiquement, tout en montrant des résultats compétitifs sur les nouveaux benchmarks mixtes introduits par les auteurs, ce qui valide à la fois l'efficacité de l'approche et la pertinence des nouveaux jeux de données. Le domaine souffrait jusqu'ici d'un double handicap : les rares datasets 3D LiDAR dédiés à la détection d'anomalies ne proposaient que des scénarios simples, avec peu d'instances anormales, et présentaient un écart de domaine important lié à la résolution du capteur utilisé. Pour y remédier, les auteurs ont construit plusieurs datasets hybrides à partir de benchmarks de segmentation sémantique établis, en y intégrant des objets hors-distribution variés dans des environnements complexes. Ce travail s'inscrit dans une dynamique plus large de fiabilisation de la perception pour la conduite autonome, où la capacité à reconnaître ce que l'on ne connaît pas est aussi importante que reconnaître ce que l'on connaît.

UELes équipementiers et laboratoires européens spécialisés dans la conduite autonome et la robotique de perception peuvent directement exploiter ce code open source pour renforcer la robustesse de leurs systèmes face aux obstacles inconnus sur route.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour