Aller au contenu principal
Gemini Omni : ce pourrait être l’IA la plus dangereuse pour le montage vidéo
CréationLe Big Data1h

Gemini Omni : ce pourrait être l’IA la plus dangereuse pour le montage vidéo

Résumé IASource uniqueImpact UE
Source originale ↗·

À quelques jours du Google I/O 2026, prévu les 19 et 20 mai, des fuites repérées dans l'application mobile Gemini ont mis en lumière un nouveau modèle d'IA vidéo baptisé Gemini Omni. Des lignes de code et des captures d'écran révèlent des fonctionnalités inédites : "edit directly in chat", "remix your videos", "try a template". Concrètement, le modèle permettrait de modifier une vidéo directement dans une interface conversationnelle, sans logiciel dédié, sans timeline complexe. Les premières démonstrations circulant sur les réseaux montrent des modifications rapides et cohérentes, et certains testeurs signalent une consommation élevée des quotas d'utilisation, signe que Google ferait tourner un modèle particulièrement gourmand en calcul. Le compte TestingCatalog, spécialisé dans la traque des fonctionnalités cachées, a été le premier à documenter ces indices le 11 mai 2026.

L'impact potentiel dépasse largement la simple mise à jour d'un outil existant. Si les fuites se confirment, Gemini Omni s'attaquerait directement aux workflows de création vidéo professionnelle : publicité, courts-métrages, contenu social media. L'idée de pouvoir écrire une instruction en langage naturel, "rends cette scène plus dynamique avec une musique épique", et obtenir une vidéo retravaillée en quelques minutes représente une rupture majeure par rapport aux outils actuels. Cela menacerait des acteurs comme Adobe Premiere, DaVinci Resolve, mais aussi les plateformes d'IA vidéo spécialisées comme Runway ou Pika, qui ont bâti leur modèle sur la fragmentation des usages. Pour les créateurs de contenu, les agences et les petites productions, ce type d'outil pourrait réduire drastiquement les coûts et les délais de production.

Le choix du terme "Omni" est révélateur de la stratégie de Google. Dans le secteur de l'IA, il désigne des modèles capables de traiter simultanément plusieurs types de contenu : texte, image, audio, vidéo. Google semble vouloir unifier sous une seule IA ce qui est aujourd'hui dispersé entre Veo pour la génération vidéo, Imagen pour les images, et Gemini pour le texte. Plusieurs observateurs estiment que Veo pourrait être absorbé dans cette architecture unifiée. La compétition est intense : OpenAI développe des capacités vidéo dans GPT-4o, Runway et Pika lèvent des fonds à des valorisations records. Mais l'ambition d'une IA véritablement omnicanale, capable de produire nativement une campagne publicitaire complète depuis une simple idée textuelle, placerait Google dans une position stratégique unique. Tout reste à confirmer lors de la keynote du 19 mai, pour l'heure, ces informations reposent sur des fuites non officielles.

Impact France/UE

Les créateurs de contenu, agences et petites productions européennes pourraient bénéficier d'une réduction significative des coûts et délais de production vidéo si Gemini Omni se confirme lors du Google I/O du 19 mai.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Seedance 2.0 : Le guide complet de la création vidéo multimodale
1Le Big Data 

Seedance 2.0 : Le guide complet de la création vidéo multimodale

Seedance 2.0 s'impose comme l'un des moteurs de génération vidéo par intelligence artificielle les plus avancés du moment, ciblant aussi bien les monteurs professionnels que les créateurs amateurs. Cette nouvelle version repose sur une architecture de Diffusion Transformers (DiT) enrichie de milliards de paramètres, ce qui permet au modèle de comprendre l'espace, les volumes et le comportement de la lumière sur les matières. La résolution monte jusqu'au 4K grâce à un upscaling intelligent, tandis que la cohérence temporelle entre les plans, longtemps talon d'Achille des générateurs vidéo IA, atteint un niveau de stabilité inédit. Les textures complexes comme le grain de peau ou les reflets sur l'eau sont rendues avec un réalisme qui rend l'intégration dans des productions professionnelles crédible sans retouche supplémentaire. L'impact concret pour les créateurs tient surtout aux nouvelles fonctions de contrôle introduites avec cette version. Le Motion Brush permet de tracer à la main la trajectoire exacte d'un élément dans le cadre, donnant au réalisateur une maîtrise que les outils précédents refusaient. L'édition par zone autorise la retouche d'un détail isolé, changer la couleur d'un vêtement ou ajouter un accessoire, sans reconstruire l'intégralité du clip. Le contrôle de la profondeur de champ ouvre la porte aux flous artistiques directement dans la phase de génération. Ces fonctions réduisent drastiquement les allers-retours entre la génération et la post-production, ce qui change le rapport au temps dans les workflows créatifs. Seedance 2.0 arrive dans un marché de la vidéo générative qui se densifie rapidement, avec des acteurs comme Sora d'OpenAI, Runway ou Kling déjà bien installés. L'enjeu pour chaque plateforme est de se différencier non plus seulement sur la qualité brute du rendu, mais sur le degré de contrôle offert au créateur, ce que cette version tente d'incarner avec ses outils de précision. La montée en puissance des architectures DiT, déjà adoptées dans la génération d'images fixes, s'étend désormais à la vidéo avec des résultats qui tendent à confirmer leur supériorité sur les approches plus anciennes. La suite dépendra de la capacité de l'outil à tenir ses promesses sur des projets longs et complexes, et de l'ouverture éventuelle de son accès à une communauté plus large de développeurs et studios indépendants.

CréationOpinion
1 source
Google AI lance Gemini 3.1 Flash TTS : un nouveau standard pour la voix IA expressive et contrôlable
2MarkTechPost 

Google AI lance Gemini 3.1 Flash TTS : un nouveau standard pour la voix IA expressive et contrôlable

Google a lancé Gemini 3.1 Flash TTS, un nouveau modèle de synthèse vocale disponible en préversion via l'API Gemini, Google AI Studio, Vertex AI pour les entreprises et Google Vids pour les utilisateurs Workspace. Le modèle affiche un score Elo de 1 211 sur le classement Artificial Analysis TTS Leaderboard, ce qui en fait le modèle vocal le plus naturel et expressif jamais proposé par Google. Sa particularité technique réside dans le recours à des balises audio et au prompting en langage naturel pour piloter le style, le ton, le rythme, l'accentuation et les nuances dialectales dans plus de 70 langues. Le modèle gère également nativement le dialogue multi-locuteurs, sans nécessiter d'appels API séparés pour chaque voix, ce qui garantit une fluidité conversationnelle bien supérieure aux pipelines TTS traditionnels. Enfin, chaque audio généré intègre automatiquement un filigrane invisible SynthID, conçu pour être imperceptible à l'écoute tout en permettant une détection fiable du contenu généré par IA. Cette version marque un tournant dans la façon dont les développeurs construisent des expériences vocales. En permettant de diriger le modèle comme un réalisateur audio plutôt que de subir une conversion figée, Google ouvre la voie à des cas d'usage bien plus sophistiqués : podcasts générés automatiquement avec plusieurs intervenants distincts, scripts dramatiques, interfaces d'assistants collaboratifs ou encore doublages multilingues. Pour les entreprises clientes de Vertex AI, la combinaison de la qualité benchmark, du contrôle fin et du watermarking intégré répond directement aux exigences de conformité et de traçabilité qui freinent souvent l'adoption de l'audio généré par IA dans des contextes professionnels sensibles. Ce lancement s'inscrit dans une course intense entre les grandes plateformes technologiques pour dominer la synthèse vocale expressive. OpenAI avec ses modèles TTS, ElevenLabs et d'autres acteurs spécialisés ont considérablement élevé le niveau d'attente des développeurs ces deux dernières années. Google répond en misant sur son infrastructure existante, l'intégration native dans l'écosystème Workspace et la profondeur multilingue, des atouts structurels que les startups peinent à répliquer à cette échelle. L'intégration de SynthID dans un modèle grand public est également un signal politique fort : alors que la régulation de l'IA générative s'intensifie en Europe et aux États-Unis, Google anticipe les futures obligations de transparence sur les contenus synthétiques. La suite logique sera d'observer si ce modèle s'impose comme référence dans les benchmarks indépendants et comment les concurrents répondront dans les prochains mois.

UEL'intégration native du filigrane SynthID anticipe les obligations de transparence sur les contenus synthétiques imposées par l'AI Act européen, facilitant la conformité pour les entreprises utilisant Vertex AI.

CréationOpinion
1 source
3Le Big Data 

Netflix VOID AI : l’open source pour réécrire vos vidéos

Netflix a publié en 2026 un outil open source baptisé VOID AI, pour Video Object and Interaction Deletion, capable de supprimer des éléments d'une vidéo tout en recalculant automatiquement les interactions physiques qui en découlent. Là où les logiciels de montage traditionnels se contentaient de "boucher" les zones supprimées avec des pixels voisins, VOID adopte une approche radicalement différente : si une main tenant un verre est effacée, le verre tombe. Si une voiture est retirée d'une scène de collision, la trajectoire des autres véhicules est recalculée. L'outil s'appuie sur des modèles de diffusion vidéo, notamment CogVideoX, et sur un système de masquage précis pour isoler l'objet cible sans contaminer le reste de l'image. Lumières, ombres et perspectives se mettent à jour de façon cohérente, sans intervention manuelle. Ce niveau de précision représente un saut qualitatif majeur pour les professionnels de la post-production. Jusqu'ici, effacer un élément en mouvement dans une séquence complexe pouvait mobiliser des heures de travail manuel, avec des résultats souvent imparfaits sur les zones à fort déplacement. VOID automatise ce processus en intégrant ce que Netflix appelle la "simulation contrefactuelle" : l'IA ne se demande pas seulement à quoi ressemble la scène sans l'objet, mais à quoi elle aurait ressemblé si cet objet n'avait jamais existé. Pour les studios, les créateurs indépendants ou les équipes de post-production, cela signifie des délais réduits et une liberté créative élargie, à condition de disposer d'une machine suffisamment puissante pour faire tourner l'outil. Le raisonnement causal au cœur de VOID ne relève pas de la magie algorithmique mais d'un entraînement rigoureux sur des données physiques synthétiques, générées notamment via Blender et inspirées de bases de données visuelles complexes. Netflix positionne cet outil dans la continuité de ses investissements en recherche appliquée, un domaine où le groupe rivalise désormais avec les grands laboratoires académiques et les éditeurs de logiciels professionnels comme Adobe ou DaVinci Resolve. En publiant VOID en open source, la plateforme fait le choix de l'écosystème plutôt que de la rétention technologique, une stratégie qui lui permet d'accélérer l'adoption, d'attirer des contributions externes et de s'imposer comme référence dans un segment en pleine expansion. Les suites possibles incluent une intégration dans des pipelines de production existants et, à terme, des applications grand public pour l'édition vidéo assistée par IA.

UELes studios de post-production français et européens peuvent adopter directement cet outil open source pour réduire les délais et coûts de montage vidéo complexe.

CréationOutil
1 source
Midjourney V8 Alpha : un nouveau souffle pour la création visuelle IA
4Le Big Data 

Midjourney V8 Alpha : un nouveau souffle pour la création visuelle IA

Midjourney a lancé le 27 mars 2026 la version V8 Alpha de son générateur d'images, marquant une rupture technique notable avec la V7. La nouveauté la plus immédiate est la vitesse : le modèle génère des images jusqu'à cinq fois plus rapidement que son prédécesseur. L'accès ne passe plus par Discord mais par un portail web dédié, alpha.midjourney.com, réservé aux abonnés actifs de la plateforme. La résolution native passe à 2K, sans étape d'upscaling artificiel, chaque pixel étant calculé dès la phase initiale de génération. Le modèle embarque également un algorithme de compréhension du langage revu, censé mieux respecter les instructions de cadrage complexes et réduire les erreurs anatomiques récurrentes sur les visages. Un nouveau mode de travail, le Grid Mode, permet de visualiser et modifier des variantes en temps réel directement depuis l'interface web. Ce virage technique positionne Midjourney comme un outil de production sérieux, et non plus comme un terrain d'expérimentation communautaire adossé à une messagerie. Pour les studios de design, les agences créatives et les illustrateurs professionnels, la combinaison résolution 2K natif et latence réduite change concrètement le rythme de travail : là où une itération prenait plusieurs dizaines de secondes, elle se mesure désormais en quelques secondes. Le abandon du canal Discord, longtemps critiqué pour son ergonomie chaotique, simplifie la gestion des ressources GPU côté serveur et offre un environnement moins encombré. Pour les utilisateurs réguliers, la qualité des ombres, des lumières et des textures franchit un palier visible dès les premiers essais, réduisant le nombre de générations nécessaires avant d'obtenir un résultat exploitable. Midjourney avait subi quelques critiques après la V7, jugée décevante par une partie de sa base d'utilisateurs qui attendait un saut plus marqué. La V8 répond à cette pression concurrentielle dans un segment ou Adobe Firefly, Stable Diffusion et les outils de génération de Google et OpenAI se disputent les mêmes créatifs professionnels. Le passage à une interface web propriétaire reflète aussi une stratégie de monétisation et de contrôle plus direct sur l'expérience utilisateur, en s'affranchissant de la dépendance à l'infrastructure Discord. Le déploiement reste semi-fermé en phase alpha, ce qui laisse anticiper des ajustements supplémentaires avant une disponibilité générale. La prochaine étape sera de voir si ces gains de performance se confirment sur des cas d'usage exigeants, et si Midjourney parvient à fidéliser les créatifs qui avaient commencé à explorer des alternatives plus stables.

CréationOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour