Aller au contenu principal
Une startup permet de générer des vidéos à moindre coût
AutreThe Information AI1h

Une startup permet de générer des vidéos à moindre coût

1 source couvre ce sujet·Source originale ↗·

Alors qu'OpenAI a récemment fermé son outil de génération vidéo Sora, d'autres acteurs du secteur continuent d'innover — et cherchent surtout à se démarquer sur le plan économique. LTX, une spin-off de Lightricks (l'éditeur de l'application de retouche photo Facetune), a lancé en janvier 2026 un logiciel open-source de génération et d'édition vidéo par IA, capable de tourner sur un simple ordinateur portable. Son modèle tarifaire est original : les développeurs peuvent utiliser l'outil gratuitement jusqu'à ce que leur chiffre d'affaires dépasse les 10 millions de dollars. Au-delà de ce seuil, ils doivent reverser une portion de leurs revenus à LTX — une règle expliquée directement par Zeev Farbman, PDG de la société.

Ce modèle cherche à résoudre un problème concret qui freine l'adoption des outils vidéo par IA : le coût prohibitif des itérations. Aujourd'hui, les modèles ne produisent que rarement le résultat attendu dès la première tentative. Les utilisateurs doivent générer de nombreuses versions du même clip, ajustant les paramètres à chaque essai — ce qui fait rapidement exploser la facture quand chaque génération est payante. Chez des concurrents comme xAI, Google ou Runway, produire une seule minute de vidéo peut coûter de quelques dollars à plus de 10 dollars. En offrant un accès gratuit aux petits développeurs, LTX supprime ce frein à l'expérimentation.

Ce lancement intervient dans un contexte où le marché de la vidéo générée par IA cherche encore son modèle économique viable. Lightricks, connue pour ses applications grand public à succès, s'appuie sur son expertise en édition visuelle pour positionner LTX comme une infrastructure accessible aux créateurs et aux développeurs indépendants. La stratégie — laisser croître une base d'utilisateurs gratuits, puis monétiser les success stories — rappelle le modèle de certaines licences open-source commerciales comme celle de MongoDB ou Elastic. Si la qualité des modèles continue de progresser, LTX pourrait devenir une alternative crédible aux plateformes fermées et coûteuses qui dominent actuellement le secteur.

À lire aussi

Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »
1La Tribune 

Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »

Keri Pearlson, chercheuse au MIT Sloan School of Management spécialisée en cybersécurité et gouvernance numérique, a accordé un entretien en marge du Forum InCyber, qui se tient à Lille jusqu'au 2 avril 2026. Sa mise en garde est directe : le principal danger de l'IA générative en entreprise ne réside pas dans ses failles techniques, mais dans la confiance excessive que lui accordent salariés et dirigeants. Selon elle, cette sur-confiance fragilise des organisations qui peinent déjà à instaurer une véritable culture de la cybersécurité. L'enjeu est concret : lorsque les collaborateurs délèguent aveuglément des décisions ou des tâches sensibles à des outils d'IA, ils contournent sans le savoir les garde-fous humains qui constituent la dernière ligne de défense contre les cyberattaques. Les dirigeants, souvent séduits par les gains de productivité, sous-estiment les nouveaux vecteurs de risque introduits par ces outils — phishing augmenté, manipulation sémantique, fuites de données via des prompts mal maîtrisés. L'IA ne remplace pas le risque humain, elle le démultiplie. Ce constat s'inscrit dans un contexte où la culture cyber reste un chantier inachevé dans la plupart des entreprises : formations insuffisantes, responsabilités floues, écart persistant entre discours de direction et pratiques terrain. Le Forum InCyber, rendez-vous annuel qui rassemble experts, industriels et décideurs publics européens, illustre l'urgence du sujet. Les travaux de Pearlson au MIT pointent vers une nécessité : intégrer la gouvernance de l'IA directement dans les stratégies de cybersécurité, plutôt que de traiter les deux disciplines séparément.

UEL'interview se tient au Forum InCyber de Lille, rendez-vous européen de référence en cybersécurité, et ses recommandations sur la gouvernance IA s'adressent directement aux entreprises et décideurs publics français et européens.

AutreOpinion
1 source
Créez avec Veo 3.1 Lite, notre modèle de génération vidéo le plus accessible
2Google AI Blog 

Créez avec Veo 3.1 Lite, notre modèle de génération vidéo le plus accessible

Google a mis en disponibilité Veo 3.1 Lite, sa nouvelle version allégée de modèle de génération vidéo, en accès payant via l'API Gemini et en test gratuit sur Google AI Studio. Présenté comme le modèle de génération vidéo le plus économique de la gamme, il s'adresse aux développeurs et entreprises souhaitant intégrer la création vidéo IA dans leurs applications sans supporter les coûts de la version complète Veo 3.1. Ce lancement répond à une demande croissante de solutions vidéo IA accessibles pour les équipes produit et les startups. En proposant une alternative moins coûteuse, Google ouvre la génération vidéo à une base bien plus large de développeurs, au-delà des grandes entreprises capables d'absorber les tarifs premium. La disponibilité directe via l'API Gemini facilite l'intégration dans des pipelines existants. Veo 3.1 Lite s'inscrit dans la stratégie de Google de démocratiser ses outils d'IA générative face à la concurrence de Sora d'OpenAI et Runway. La famille Veo, lancée en 2024, monte progressivement en accessibilité après avoir ciblé initialement les partenaires enterprise. La phase de "paid preview" suggère une disponibilité générale prochaine, avec des tarifs définitifs à préciser.

UELes développeurs et startups européens peuvent désormais intégrer la génération vidéo IA dans leurs pipelines applicatifs à moindre coût via l'API Gemini.

AutreOutil
1 source
La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes
3AWS ML Blog 

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes

L'ère de l'IA agentique bouleverse les fondements de la gouvernance informatique traditionnelle. Là où les systèmes DevOps classiques produisaient des résultats déterministes — même entrée, même sortie, dépendances connues — les agents IA opèrent de façon non déterministe : posez la même question deux fois, vous obtenez deux réponses différentes. Ces agents sélectionnent eux-mêmes leurs outils, adaptent leurs raisonnements et agissent de manière autonome. Face à ce constat, AWS Generative AI Innovation Center a développé une solution appelée AI Risk Intelligence (AIRI), un système de gouvernance automatisée qui centralise les évaluations de sécurité, d'opérations et de conformité en un seul tableau de bord couvrant l'ensemble du cycle de vie agentique. La solution s'appuie sur le cadre AWS Responsible AI Best Practices, construit à partir de l'expérience acquise sur des centaines de milliers de déploiements IA. L'enjeu est concret : les cadres de gouvernance IT conçus pour des déploiements statiques sont incapables de gérer les interactions complexes des systèmes multi-agents. Un scénario illustratif le démontre clairement — et figure dans le Top 10 OWASP des vulnérabilités agentiques pour 2026. Un assistant IA d'entreprise, légitimement autorisé à accéder aux e-mails, au calendrier et au CRM, reçoit via un e-mail des instructions malveillantes dissimulées. Lorsqu'un utilisateur demande un résumé anodin, l'agent compromis suit ces directives cachées : il fouille des données sensibles et les exfiltre via des invitations calendrier, tout en affichant une réponse bénigne. Les outils classiques de prévention des fuites de données et de surveillance réseau ne détectent rien — car l'agent agit dans le strict périmètre de ses permissions légitimes. La violation est invisible aux yeux des systèmes traditionnels. Ce cas révèle la nature systémique du risque agentique : une faille de sécurité se propage simultanément à travers plusieurs dimensions. L'action d'un agent en déclenche d'autres, les contrôles d'accès ne sont pas réévalués en continu pendant l'exécution, aucun point de contrôle humain ne s'interpose avant une action à haut risque, et les responsables de la conformité ne peuvent pas interpréter les données de monitoring pour détecter l'anomalie à temps. C'est pourquoi AIRI entend fusionner sécurité, opérations et gouvernance en un dispositif intégré plutôt qu'en silos séparés. Dans un contexte où les entreprises accélèrent leurs déploiements d'agents autonomes — pour automatiser des workflows, piloter des décisions, interagir avec des systèmes critiques — la question n'est plus seulement de savoir si l'IA fonctionne, mais si l'organisation peut réellement maîtriser ce qu'elle fait.

UELes entreprises européennes déployant des agents IA autonomes doivent adapter leurs cadres de gouvernance pour satisfaire aux exigences de l'AI Act, notamment en matière de supervision humaine, de traçabilité et de contrôle continu des systèmes à haut risque.

AutreActu
1 source
4ActuIA 

L’IA au service de la transformation numérique des entreprises luxembourgeoises

Autre
1 source