Aller au contenu principal
Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic
AutreSiècle Digital1h

Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic

1 source couvre ce sujet·Source originale ↗·

Google a annoncé une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Google Workspace, en déployant ses modèles d'intelligence artificielle les plus récents. La plateforme intègre désormais Veo 3.1, capable de générer des clips vidéo en 720p à partir d'une simple description textuelle. L'outil propose également la composition musicale automatique, la personnalisation d'avatars animés, la capture d'écran intégrée et une création de bout en bout à partir d'une idée initiale.

Pour les entreprises et les équipes qui produisent du contenu régulièrement, cette mise à jour réduit considérablement le temps et les compétences techniques nécessaires à la production vidéo. Là où il fallait auparavant un outil de montage, des assets sonores et un opérateur formé, Google Vids promet de compresser ce workflow en quelques clics. La cible est clairement professionnelle : présentations internes, formations, communications corporate, ou contenus marketing légers, sans passer par une agence ou un logiciel spécialisé.

Google positionne Vids comme le pendant vidéo de Google Slides dans l'écosystème Workspace, capitalisant sur sa base d'utilisateurs enterprise déjà captive. La montée en puissance de Veo, son modèle vidéo génératif, s'inscrit dans une compétition directe avec Sora d'OpenAI et Runway. En intégrant ces capacités directement dans Workspace plutôt qu'en produit autonome, Google mise sur l'effet d'adoption naturelle, là où ses concurrents doivent convaincre les utilisateurs de changer d'outil. La question reste de savoir si la qualité des rendus sera suffisante pour des usages professionnels exigeants.

Impact France/UE

Google Workspace étant massivement déployé dans les entreprises françaises et européennes, cette mise à jour impacte directement les équipes qui produisent du contenu vidéo dans cet écosystème.

À lire aussi

1Ars Technica AI 

Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse

Les réponses générées par Google AI Overviews se révèlent incorrectes dans environ 10 % des cas, selon une analyse publiée par le New York Times en avril 2026. Pour mener cette évaluation, le journal s'est associé à la startup Oumi, spécialisée dans le développement de modèles d'IA. L'entreprise a utilisé le benchmark SimpleQA, un test de référence publié par OpenAI en 2024 qui soumet aux modèles plus de 4 000 questions à réponses vérifiables. Les premiers résultats, obtenus alors que Gemini 2.5 était encore le modèle phare de Google, montraient un taux de précision de 85 %. Après la mise à jour vers Gemini 3, ce score est monté à 91 %. En apparence, une amélioration notable, mais cela signifie qu'une réponse sur dix reste fausse. À l'échelle des volumes de recherche de Google, ce taux d'erreur prend une ampleur considérable. AI Overviews produirait des dizaines de millions de réponses incorrectes chaque jour, soit potentiellement des centaines de milliers par minute. Ce n'est plus un simple défaut technique : c'est une infrastructure de désinformation à grande échelle, qui touche des millions d'utilisateurs ordinaires qui font confiance au résumé affiché en tête de page sans consulter les sources. Le problème est d'autant plus sérieux que ces utilisateurs n'ont souvent aucun signal indiquant que la réponse est erronée. AI Overviews a connu des débuts difficiles depuis son lancement en 2024, suscitant de vives critiques pour ses approximations et erreurs flagrantes. Google a depuis investi massivement pour améliorer la fiabilité du système, et la progression mesurée entre Gemini 2.5 et Gemini 3 témoigne de ces efforts. Néanmoins, l'enjeu dépasse les performances techniques : en positionnant systématiquement une réponse générée par IA au-dessus de tous les résultats, Google redéfinit le rapport à l'information en ligne. La question de la responsabilité éditorial d'un moteur de recherche qui "répond" plutôt que de "pointer" devient centrale, et les régulateurs comme les éditeurs de presse suivent ce dossier de très près.

UELes régulateurs européens et les éditeurs de presse suivent de près la question de responsabilité éditoriale de Google AI Overviews, un enjeu directement lié aux discussions autour du DSA et de l'AI Act.

AutreActu
1 source
Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA
2The Verge AI 

Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA

Suno, la plateforme de creation musicale par intelligence artificielle, se heurte a des negociations tendues avec Universal Music Group et Sony Music Entertainment pour obtenir des accords de licence. Selon le Financial Times, les discussions achoppent sur une question centrale : les utilisateurs doivent-ils pouvoir partager librement les chansons generees par l'IA en dehors de l'application ? Universal exige que les titres crees via Suno restent confines a l'interieur de la plateforme, tandis que Suno defend le droit de ses utilisateurs a diffuser et distribuer leurs creations sur l'ensemble d'internet. Cet affrontement illustre la fracture profonde entre l'industrie musicale traditionnelle et les nouveaux acteurs de l'IA generative. Pour les majors, laisser circuler librement des titres generes a partir de leur catalogue protege revient a perdre le controle de leur catalogue et potentiellement a inonder les plateformes de streaming de contenus concurrents. Pour Suno, restreindre le partage viderait son produit d'une grande partie de sa valeur : l'attrait de creer et de diffuser une chanson en quelques secondes. Suno fait deja face a un contentieux juridique majeur : la plateforme est poursuivie en justice par un collectif de grandes maisons de disques, dont Universal et Sony, pour violation massive du droit d'auteur lors de l'entrainement de son modele. Ces negociations sur les licences s'inscrivent donc dans un contexte de guerre ouverte entre l'IA musicale et l'industrie du disque, une bataille qui fixera les regles du secteur pour les annees a venir. D'autres acteurs comme Udio font face a des procedures similaires, tandis que des plateformes comme Spotify observent l'issue de ces conflits avant de decider de leur propre positionnement vis-a-vis de l'IA generative.

UEL'issue de ces negociations pourrait faire jurisprudence en Europe, ou la directive sur le droit d'auteur de 2019 encadre deja strictement l'entrainement des IA sur des oeuvres protegees et la distribution des contenus generes.

AutreReglementation
1 source
Perplexity : le mode incognito est une arnaque, vos recherches dévoilées
3Le Big Data 

Perplexity : le mode incognito est une arnaque, vos recherches dévoilées

Une action collective fédérale de 135 pages a été déposée aux États-Unis contre Perplexity, le moteur de recherche dopé à l'intelligence artificielle valorisé à plusieurs milliards de dollars. La plainte, introduite par un utilisateur anonyme sous le nom de John Doe, accuse la startup d'avoir transmis en temps réel des conversations privées à Google et Meta, y compris lorsque le mode incognito était activé. Ces transferts auraient impliqué des outils publicitaires bien identifiés : Meta Pixel, Google Ads et Google DoubleClick. L'affaire pourrait concerner des millions d'échanges depuis 2022, couvrant des sujets aussi sensibles que la santé, la fiscalité, la sexualité ou l'identité. Ce qui rend le scandale particulièrement grave, c'est la nature même de ce qui est transmis. Contrairement à une requête Google classique, les conversations avec un assistant IA sont souvent longues, personnelles et détaillées. Dans le cas de John Doe, il s'agissait de données financières liées à la gestion d'impôts et d'investissements. Mais Perplexity encourage activement ce niveau de détail en relançant ses utilisateurs avec des invitations du type "donnez-moi plus de détails sur votre plan de traitement". Si ces messages sont acheminés vers des régies publicitaires avec des identifiants liés à un compte Google ou Facebook, les conséquences sont immédiates et concrètes : un utilisateur mentionnant une maladie pourrait se retrouver ciblé par des publicités pharmaceutiques sans jamais avoir consenti à partager cette information. La plainte décrit ces mécanismes comme une "technologie d'écoute téléphonique basée sur un navigateur", soulignant que même les utilisateurs équipés de bloqueurs de publicité ou ayant désactivé les cookies ne seraient pas protégés, car Meta recommande précisément d'associer son pixel à une API de conversions pour contourner ces défenses. Perplexity avait construit une partie de sa réputation sur la promesse d'un mode incognito inspiré des navigateurs web : pas de sauvegarde, expiration des échanges au bout de vingt-quatre heures, absence dans l'historique. Cette promesse, si elle s'avère trompeuse devant un tribunal fédéral, placerait la startup dans une position juridique et réputationnelle extrêmement délicate. L'affaire s'inscrit dans un contexte plus large de méfiance croissante envers les assistants IA qui collectent des données sensibles sous couvert de confidentialité. Les régulateurs américains et européens scrutent de près ces pratiques depuis plusieurs années, et une condamnation pourrait établir un précédent majeur pour l'ensemble du secteur. Perplexity n'a pas encore répondu publiquement aux accusations au moment du dépôt de la plainte.

UELes utilisateurs européens de Perplexity sont potentiellement exposés à des transferts de données sensibles vers des régies publicitaires américaines en violation possible du RGPD, ce qui pourrait conduire la CNIL ou d'autres régulateurs européens à ouvrir une enquête.

AutreOpinion
1 source
Why AI Systems Fail Quietly
4IEEE Spectrum AI 

Why AI Systems Fail Quietly

Dans les systèmes d'intelligence artificielle distribués, une nouvelle catégorie de pannes préoccupe de plus en plus les ingénieurs : des défaillances silencieuses où tout semble fonctionner normalement, les tableaux de bord restent au vert, les journaux d'erreurs sont vides, et pourtant les décisions produites par le système se dégradent progressivement. L'exemple typique est celui d'un assistant IA d'entreprise chargé de synthétiser des mises à jour réglementaires pour des analystes financiers : il continue de générer des résumés cohérents, de récupérer des documents valides, de distribuer ses synthèses sans interruption, mais il travaille silencieusement sur des informations obsolètes parce qu'un dépôt documentaire mis à jour n'a jamais été intégré à son pipeline de récupération. Aucune alerte ne se déclenche. Aucun composant ne tombe en panne. Le système fonctionne exactement comme prévu, mais son résultat est faux. Ce phénomène représente une rupture fondamentale avec la manière dont l'industrie logicielle a traditionnellement pensé la fiabilité. Les outils d'observabilité classiques, conçus autour de métriques comme la disponibilité, la latence et les taux d'erreur, sont bien adaptés aux applications transactionnelles où chaque requête est traitée indépendamment et où la correction peut être vérifiée immédiatement. Ils deviennent insuffisants face aux systèmes autonomes, qui fonctionnent en boucles de raisonnement continues : chaque décision influence les actions suivantes, et la correction du résultat émerge non pas d'un calcul isolé mais d'une séquence d'interactions entre composants, étalée dans le temps. Un agent de planification peut générer des étapes localement raisonnables mais globalement dangereuses. Un système de décision distribué peut exécuter des actions correctes dans le mauvais ordre. Aucune de ces conditions ne produit nécessairement d'erreur au sens technique du terme. La cause profonde est architecturale. Les logiciels traditionnels reposent sur des opérations discrètes, déclenchées de l'extérieur par un utilisateur ou un planificateur, avec un contrôle épisodique et traçable. Les systèmes autonomes modernes, qu'il s'agisse d'agents IA maintenant un contexte entre les interactions, de systèmes d'infrastructure ajustant leurs ressources en temps réel ou de workflows automatisés enchaînant des actions sans intervention humaine, observent, raisonnent et agissent en continu. La correction ne dépend plus du bon fonctionnement de chaque composant individuel, mais de la coordination dans le temps d'un flux de décisions prises par des modèles, des moteurs de raisonnement et des algorithmes de planification. Les ingénieurs spécialisés dans les systèmes distribués connaissent bien les problèmes de coordination, mais il s'agit ici d'une coordination d'un type nouveau : non plus maintenir la cohérence des données entre services, mais garantir qu'une chaîne de décisions autonomes reste alignée avec l'intention initiale du système, même lorsque rien ne se casse.

AutreOpinion
1 source