Aller au contenu principal
Luma ouvre l'API de son modèle image Uni-1.1 avec des tarifs et une qualité comparables à OpenAI et Google
OutilsThe Decoder52min

Luma ouvre l'API de son modèle image Uni-1.1 avec des tarifs et une qualité comparables à OpenAI et Google

Résumé IASource uniqueImpact UE
Source originale ↗·

Luma AI ouvre l'accès à son modèle de génération d'images Uni-1.1 via une API publique, à partir de 0,04 dollar par image en résolution 2 048 pixels. Le modèle intègre nativement une recherche web, un module de raisonnement et la prise en charge de jusqu'à neuf images de référence pour guider la génération. Sur le classement Arena, référence indépendante d'évaluation des modèles, Uni-1.1 se positionne troisième, immédiatement derrière les offres de Google et d'OpenAI.

Ce lancement positionne Luma comme un concurrent direct des deux géants du secteur, avec une tarification alignée sur leurs niveaux de prix tout en revendiquant une qualité comparable. Pour les développeurs et les entreprises, l'arrivée d'un troisième acteur crédible dans cette tranche de performance élargit les options et pourrait exercer une pression à la baisse sur les tarifs. La présence de fonctions comme le raisonnement intégré et la recherche web distingue Uni-1.1 des API d'images traditionnelles, qui se limitent généralement à la génération brute.

Luma, connu pour son modèle vidéo Dream Machine lancé en 2024, diversifie ainsi son offre vers la génération d'images statiques de haute qualité. Le marché des API de génération visuelle s'est considérablement densifié ces derniers mois, avec des acteurs comme Stability AI, Ideogram ou Recraft qui cherchent tous à capter une part des budgets des équipes produit et créatives. La stratégie de Luma mise sur la combinaison qualité-prix et les fonctionnalités avancées pour s'imposer dans un espace de plus en plus encombré.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google Vids s'enrichit de l'IA avec les modèles Veo et Lyria, et des avatars pilotables
1Ars Technica AI 

Google Vids s'enrichit de l'IA avec les modèles Veo et Lyria, et des avatars pilotables

Google a annoncé une mise à jour majeure de son outil de création vidéo Google Vids, intégrant ses derniers modèles d'IA générative, dont Veo 3.1 pour la vidéo et Lyria pour l'audio. Le modèle Veo 3.1, déployé en premier sur Gemini fin 2025, promet des améliorations significatives en termes de réalisme et de cohérence visuelle. L'outil propose désormais des avatars IA directables — des personnages numériques contrôlables qui peuvent apparaître dans les vidéos générées — ainsi qu'une intégration facilitée avec YouTube pour le partage de contenus. Les vidéos produites durent huit secondes et sont rendues en résolution 720p. L'accès à ces fonctionnalités reste plafonné selon le niveau d'abonnement : les utilisateurs sans abonnement IA n'obtiennent que 10 générations vidéo par mois, les abonnés AI Pro en ont 50, tandis que les clients du plan AI Ultra — personnel ou entreprise, le plus coûteux de Google — bénéficient de 1 000 générations mensuelles. Ce modèle économique positionne Google Vids comme un outil grand public et professionnel à la fois, ciblant des usages concrets comme la création de flyers animés, de vidéos de présentation commerciale ou de cartes de vœux vidéo. Cette mise à jour intervient dans un contexte de vive concurrence sur le marché de la vidéo générative, où OpenAI a récemment restreint ses ambitions dans ce domaine. Google, au contraire, accélère le déploiement de Veo dans ses produits grand public, après l'avoir d'abord présenté comme un outil destiné aux cinéastes professionnels. Le glissement vers des cas d'usage plus accessibles illustre la stratégie de Google pour monétiser ses capacités d'IA via Google One et Workspace, tout en cherchant à ancrer ses modèles dans les habitudes quotidiennes des utilisateurs face à des concurrents comme Adobe, Canva ou Runway.

UELes utilisateurs européens de Google Workspace et Google One peuvent accéder aux nouvelles fonctionnalités vidéo de Google Vids selon leur niveau d'abonnement, avec des implications tarifaires directes pour les professionnels et entreprises.

OutilsOutil
1 source
2MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
3The Verge AI 

Google met à jour son mode IA pour ouvrir les liens sans quitter la page

Google enrichit son mode IA dans Chrome avec une nouvelle fonctionnalité permettant d'ouvrir des liens sources directement aux côtés de la conversation, sans quitter la page. Concrètement, lorsqu'un utilisateur clique sur une source citée par l'IA, le site s'affiche en vue partagée, côte à côte avec le chat, plutôt que dans un nouvel onglet. Cette mise à jour s'applique à AI Mode, l'interface de recherche conversationnelle intégrée à Google Search depuis 2025. Ce changement améliore significativement la fluidité du parcours de recherche : l'utilisateur peut désormais consulter la source primaire tout en continuant à poser des questions à l'IA sur le contenu affiché. Pour les professionnels et chercheurs qui jonglent entre sources multiples, cela réduit la friction entre la vérification des faits et l'exploration assistée. Google positionne ainsi AI Mode comme un véritable environnement de travail intégré, pas seulement un moteur de réponses. AI Mode a été lancé l'an dernier comme une surcouche conversationnelle à Google Search, logée dans un panneau latéral. Depuis, Google y a progressivement ajouté des capacités comme la génération d'images de tenues ou de décoration, la visualisation de voyages, et la recherche de réservations de restaurants. Cette nouvelle fonctionnalité s'inscrit dans une course plus large entre Google, Microsoft (Copilot dans Edge) et d'autres acteurs pour transformer le navigateur lui-même en interface d'IA contextuelle, où la frontière entre recherche et navigation s'efface progressivement.

UELes utilisateurs français de Chrome bénéficient directement de cette amélioration de l'interface AI Mode, qui réduit la friction lors de la vérification des sources dans les recherches assistées par IA.

OutilsOutil
1 source
Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK
4The Decoder 

Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK

Google a introduit une nouvelle fonctionnalité baptisée « Agent Skill » dans son API Gemini, conçue pour combler une lacune structurelle des modèles d'IA : leur ignorance des mises à jour de leurs propres SDK survenues après leur date d'entraînement. Ce mécanisme permet au modèle d'accéder dynamiquement à une documentation à jour sur ses propres outils, améliorant significativement la qualité du code généré pour les applications qui utilisent l'API Gemini. L'impact est concret pour les développeurs : un modèle qui ne connaît pas les dernières versions d'un SDK produit du code obsolète, bogué ou incompatible. En injectant automatiquement les bonnes références au moment de la génération, Google réduit les erreurs d'intégration et accélère le développement d'agents IA — un enjeu critique alors que l'écosystème évolue plusieurs fois par mois. Ce problème de « knowledge cutoff » est universel à tous les grands modèles de langage : ChatGPT, Claude et Gemini souffrent tous d'un décalage entre leur entraînement et l'état réel du monde. La réponse de Google illustre une tendance plus large — plutôt que d'attendre le prochain cycle d'entraînement, les éditeurs construisent des couches de récupération dynamique pour maintenir les modèles à jour en temps réel sur des domaines critiques comme leurs propres API.

UELes développeurs et entreprises françaises intégrant des agents IA dans leurs produits bénéficient directement d'une réduction des erreurs d'intégration liées au knowledge cutoff des SDK.

💬 C'est un problème que je rencontre toutes les semaines en intégrant des SDK qui bougent vite. Google répond d'une façon élégante : plutôt que d'attendre le prochain cycle d'entraînement, ils injectent la doc à jour directement au moment de la génération, ce qui évite les erreurs bêtes sur des méthodes dépréciées depuis trois mois. Reste à voir si ça scale quand tous les éditeurs adoptent cette logique, mais c'est clairement la bonne direction.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour