Aller au contenu principal
Google Vids : l’outil gratuit de création vidéo en un clic reçoit une énorme mise à jour
Outils01net3h

Google Vids : l’outil gratuit de création vidéo en un clic reçoit une énorme mise à jour

1 source couvre ce sujet·Source originale ↗·

Google a déployé une mise à jour majeure de son outil de création vidéo Vids, intégré à Google Workspace, en y incorporant ses modèles d'intelligence artificielle les plus récents, dont Veo 2, capable de générer des séquences vidéo réalistes à partir de simples descriptions textuelles. L'outil, accessible gratuitement aux abonnés Workspace, permet désormais de produire des vidéos complètes en quelques secondes, avec des visuels nettement plus convaincants qu'auparavant.

Pour les équipes professionnelles, ce saut qualitatif est significatif : là où il fallait des heures de montage ou un budget dédié à la production vidéo, une présentation, un tutoriel ou une communication interne peuvent désormais être générés automatiquement. Google cible directement les PME, les équipes RH et marketing qui n'ont pas de ressources vidéo en interne.

Cette mise à jour s'inscrit dans la guerre que se livrent Google, Microsoft et OpenAI sur le terrain des outils de productivité augmentés par l'IA. Google cherche à consolider Workspace face à Copilot de Microsoft, qui intègre également des capacités vidéo via des partenariats avec des outils tiers. L'enjeu est de fidéliser les entreprises dans leur écosystème respectif avant que le marché ne se stabilise.

Impact France/UE

Les PME et équipes marketing européennes utilisant Google Workspace peuvent dès maintenant tester la génération vidéo automatisée via Vids, réduisant potentiellement leurs coûts de production.

À lire aussi

Slack lance 30 nouveautés pour placer Slackbot au cœur du travail
1Le Big Data 

Slack lance 30 nouveautés pour placer Slackbot au cœur du travail

Slack a annoncé plus de 30 nouvelles fonctionnalités pour Slackbot, transformant profondément cet assistant autrefois basique en un véritable coéquipier actif au sein des organisations. Disponible dès maintenant pour les abonnements Business+ et Enterprise+ via une activation dans les paramètres administrateur, cette mise à jour s'inscrit dans la continuité des capacités "agentiques" introduites en janvier. Salesforce, propriétaire de Slack, prévoit d'élargir l'accès aux utilisateurs Free et Pro dès avril, avec un quota limité de conversations pour commencer. Parmi les nouvelles capacités concrètes : Slackbot peut écouter une réunion, prendre des notes en temps réel, afficher automatiquement une fiche client dès qu'un nom est mentionné dans la discussion, puis générer un résumé complet à la fin de l'échange. Depuis mobile, il reconnaît les commandes vocales et peut envoyer des invitations ou mettre à jour un CRM directement. Un agent desktop lui permet également d'analyser ce qui apparaît à l'écran et d'agir depuis Slack sans prise de contrôle de l'ordinateur. Un mode de recherche approfondie baptisé Deep Thoughts lui permet enfin de décomposer un problème complexe, consulter plusieurs sources et produire une synthèse structurée. Ce repositionnement de Slackbot répond à un problème identifié par Slack lui-même : les outils d'IA fonctionnent trop souvent en silo, sans offrir suffisamment de contexte opérationnel aux équipes. En intégrant l'assistant directement dans les flux de travail existants plutôt que de demander aux employés de basculer vers un outil séparé, Slack réduit le fossé entre l'analyse et l'action. Les AI Skills, ensembles d'instructions réutilisables que les équipes configurent une fois puis partagent à toute l'organisation, permettent de standardiser des tâches répétitives comme la rédaction de comptes rendus ou la synthèse d'un pipeline commercial. Pour les PME, des fonctions de gestion client permettent de mettre à jour contacts, opportunités et rapports d'appel directement depuis les conversations Slack, sans interface CRM dédiée. Slack s'inscrit dans une course que se livrent Microsoft (Copilot dans Teams), Google (Gemini dans Workspace) et désormais Salesforce pour faire de leur plateforme de collaboration le point d'entrée unique de l'IA en entreprise. L'adoption du protocole MCP — standard d'interopérabilité entre agents IA — permet à Slackbot de se connecter à Agentforce et aux applications tierces compatibles, renforçant l'écosystème Salesforce. La mémorisation progressive des habitudes utilisateur et le respect strict des permissions administrateur sont présentés comme les garanties d'un déploiement sécurisé en entreprise. La prochaine étape sera de vérifier si cet élargissement aux plans gratuits en avril convertit effectivement les utilisateurs vers les offres payantes, véritable enjeu commercial derrière cette offensive fonctionnelle.

UELes entreprises françaises et européennes utilisant Slack en abonnement Business+ ou Enterprise+ peuvent activer dès maintenant ces fonctionnalités agentiques, avec un accès élargi aux plans gratuits prévu en avril.

OutilsOutil
1 source
Cursor 3 abandonne l'IDE classique pour une interface centrée sur des flottes d'agents IA en parallèle
2The Decoder 

Cursor 3 abandonne l'IDE classique pour une interface centrée sur des flottes d'agents IA en parallèle

Cursor, l'éditeur de code dopé à l'intelligence artificielle développé par Anysphere, franchit une étape majeure avec sa version 3 en abandonnant l'interface traditionnelle des IDE au profit d'un environnement conçu dès le départ pour piloter des agents IA en parallèle. Cette refonte complète de l'interface marque un virage conceptuel : le développeur n'est plus celui qui écrit le code ligne par ligne, mais celui qui supervise des flottes d'agents autonomes travaillant simultanément sur plusieurs tâches. Ce changement de paradigme a des implications concrètes pour les équipes de développement. En permettant de lancer plusieurs agents en parallèle, Cursor 3 vise à démultiplier la productivité des ingénieurs logiciels, qui peuvent déléguer des pans entiers de l'implémentation tout en conservant le contrôle de la direction technique. L'interface n'est plus organisée autour du fichier et du curseur, mais autour des tâches en cours et des agents qui les exécutent, un renversement complet de la logique de travail habituelle. Cursor s'est imposé en quelques années comme l'un des outils les plus populaires parmi les développeurs professionnels, face à des concurrents comme GitHub Copilot ou Windsurf. Le passage à une interface "agent-first" suit la tendance générale de l'industrie, où les modèles de langage deviennent suffisamment fiables pour gérer des workflows complexes de manière autonome. Cette version 3 positionne Cursor non plus comme un assistant à la frappe, mais comme un véritable orchestrateur de développement logiciel.

UELes développeurs français et européens utilisant Cursor peuvent adopter ce nouveau paradigme agent-first pour transformer leur workflow de développement logiciel.

OutilsOutil
1 source
Comment installer Google Gemma 4 sur votre smartphone Android ou iPhone : un « ChatGPT » gratuit et sans connexion
3Frandroid 

Comment installer Google Gemma 4 sur votre smartphone Android ou iPhone : un « ChatGPT » gratuit et sans connexion

Google vient de franchir une étape significative dans la démocratisation de l'intelligence artificielle embarquée avec le lancement de Gemma 4, un modèle de langage léger conçu pour fonctionner directement sur les smartphones Android et iOS. Disponible via l'application AI Edge Gallery, ce modèle peut être téléchargé et utilisé sans aucune connexion internet, offrant une expérience comparable à celle de ChatGPT mais entièrement locale. Compatible avec les terminaux Android récents ainsi qu'avec l'iPhone, Gemma 4 s'installe en quelques minutes et ne nécessite aucun abonnement ni compte en ligne. L'enjeu principal est la confidentialité : en traitant toutes les requêtes directement sur l'appareil, aucune donnée ne transite vers des serveurs distants. Pour les professionnels manipulant des informations sensibles, les journalistes, ou simplement les utilisateurs soucieux de leur vie privée, c'est un changement de paradigme concret. L'absence de connexion requise ouvre également l'accès à l'IA dans des zones mal desservies ou lors de déplacements sans réseau fiable, élargissant drastiquement le public potentiel. Cette annonce s'inscrit dans une tendance de fond portée par plusieurs acteurs majeurs : Meta avec ses modèles Llama, Apple avec ses efforts sur l'on-device AI, et désormais Google qui accélère sur les modèles compacts. Gemma 4 est la quatrième itération d'une famille de modèles open-source lancée par Google DeepMind début 2024, pensée dès l'origine pour fonctionner sur du matériel grand public. La course aux modèles embarqués reflète une conviction croissante dans l'industrie : l'avenir de l'IA ne sera pas uniquement dans le cloud, mais aussi dans la poche de chaque utilisateur.

UELes utilisateurs français et européens peuvent désormais utiliser un LLM performant sans transfert de données vers des serveurs distants, en parfaite cohérence avec les exigences du RGPD.

OutilsTuto
1 source
Guide pas à pas : pipeline d'optimisation de modèles avec NVIDIA Model Optimizer, élagage FastNAS et affinage
4MarkTechPost 

Guide pas à pas : pipeline d'optimisation de modèles avec NVIDIA Model Optimizer, élagage FastNAS et affinage

NVIDIA a publié un tutoriel complet détaillant comment construire un pipeline d'optimisation de bout en bout à l'aide de son outil NVIDIA Model Optimizer, combinant entraînement, élagage (pruning) et ajustement fin (fine-tuning) d'un réseau de neurones profond, le tout dans Google Colab sans infrastructure dédiée. Le pipeline repose sur l'architecture ResNet appliquée au jeu de données CIFAR-10, et utilise la technique FastNAS pour réduire la complexité computationnelle du modèle sous une contrainte de 60 millions de FLOPs (opérations en virgule flottante). Concrètement, le modèle est d'abord entraîné sur 12 000 exemples pendant 20 époques pour établir une référence, puis soumis à l'élagage structurel FastNAS qui supprime systématiquement les couches et filtres les moins utiles, avant une phase de fine-tuning de 12 époques pour récupérer la précision perdue. Cette approche répond à un besoin pressant dans l'industrie : déployer des modèles d'IA performants sur des matériels contraints, comme les appareils embarqués, les téléphones mobiles ou les serveurs à faible consommation. En réduisant le nombre de FLOPs sans sacrifier significativement la précision, FastNAS permet de rendre un modèle jusqu'à plusieurs fois plus léger et plus rapide à l'inférence. Pour les équipes ML en entreprise, cela se traduit par des coûts de déploiement réduits, une latence moindre et une empreinte énergétique plus faible. Le fait que l'ensemble du pipeline soit reproductible dans Colab, avec gestion des seeds et des sous-ensembles de données, le rend accessible à des équipes sans cluster GPU dédié. NVIDIA développe Model Optimizer dans le cadre de sa stratégie plus large pour contrôler toute la chaîne de valeur de l'IA, de l'entraînement jusqu'au déploiement sur ses propres puces. FastNAS s'inscrit dans une famille de techniques de compression de modèles qui inclut également la quantification et la distillation, toutes intégrées dans l'écosystème NVIDIA TensorRT. Face à la montée en puissance des outils open source comme la bibliothèque PEFT de Hugging Face ou les approches de pruning de PyTorch, NVIDIA positionne Model Optimizer comme une solution intégrée et orientée production. La prochaine étape logique de ce pipeline serait la conversion du modèle élaguévers le format ONNX ou TensorRT pour un déploiement sur GPU NVIDIA, bouclant ainsi la boucle entre recherche et mise en production industrielle.

OutilsTuto
1 source