Luma Labs lance Uni-1 : le modèle Transformer autorégressif qui raisonne par intentions avant de générer des images
Luma Labs vient de lancer Uni-1, un modèle de génération d'images basé sur une architecture transformer autorégressif decoder-only, qui se distingue des modèles de diffusion classiques (comme Stable Diffusion ou Flux) en traitant texte et images comme une séquence unifiée de tokens. Avant de générer une image, le modèle effectue une phase de raisonnement pour comprendre les intentions spatiales et logiques de l'instruction, ce qui lui permet de surpasser Flux Max et Gemini sur les benchmarks RISEBench et ODinW-13. Accessible sur lumalabs.ai/uni-1 au tarif d'environ 0,10 $ par image, Uni-1 accepte des instructions en langage naturel sans nécessiter de prompt engineering élaboré.