À lire aussi

Google Vids : créez, modifiez et partagez des vidéos gratuitement
Google enrichit son outil de création vidéo Vids avec de nouvelles fonctionnalités d'intelligence artificielle, en intégrant ses modèles maison Lyria 3 pour la génération audio et Veo 3.1 pour la vidéo. La nouveauté centrale : ces capacités de génération vidéo haute qualité sont désormais accessibles gratuitement, sans frais supplémentaires pour les utilisateurs de Google Workspace. C'est un signal fort dans la course aux outils créatifs IA. En rendant la génération vidéo professionnelle accessible sans surcoût, Google s'attaque directement à des acteurs comme Runway, Sora d'OpenAI ou Kling, qui facturent leurs fonctionnalités premium. Pour les équipes marketing, les créateurs de contenu et les entreprises utilisant déjà l'écosystème Google, cela élimine une barrière d'entrée significative à la production vidéo assistée par IA. Google Vids a été lancé en 2024 comme réponse à Canva et aux outils de présentation vidéo, intégré à Google Workspace aux côtés de Docs, Sheets et Slides. L'intégration de Veo 3.1, version mise à jour du modèle vidéo présenté à Google I/O 2025, et de Lyria 3 pour la bande sonore, montre la volonté de Google de consolider sa suite bureautique autour de l'IA générative multimodale, face à Microsoft qui déploie Copilot dans Office.
UELes équipes et entreprises françaises déjà abonnées à Google Workspace peuvent désormais accéder gratuitement à la génération vidéo IA professionnelle, supprimant le besoin de souscrire à des outils tiers payants comme Runway ou Kling.
Google now lets you direct avatars through prompts in its Vids app

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes
Anthropic a lancé cette semaine une procédure DMCA auprès de GitHub pour faire retirer le code source de son client Claude Code, qui avait fuité récemment. La notice ciblait un dépôt initial publié par l'utilisateur GitHub "nirholas" ainsi qu'une centaine de forks spécifiquement nommés. Mais GitHub, estimant que "la majorité des forks enfreignaient les droits au même titre que le dépôt parent", a étendu le retrait à un réseau de 8 100 dépôts. Cette action a été depuis partiellement annulée. Le problème : cette suppression massive a touché de nombreux dépôts parfaitement légitimes, qui ne contenaient pas le code fuité mais forkaient simplement le dépôt public officiel de Claude Code qu'Anthropic maintient pour encourager les rapports de bugs et les contributions de la communauté. Des développeurs se sont exprimés sur les réseaux sociaux pour dénoncer leur inclusion dans ce filet DMCA alors qu'ils n'avaient partagé aucune donnée illicite. Au-delà du désagrément immédiat, l'incident illustre les limites des outils juridiques face à la viralité du code sur GitHub : une fois un dépôt forké des milliers de fois, toute tentative de suppression exhaustive devient presque impossible à cibler avec précision. Cette fuite s'inscrit dans un contexte de tension croissante autour de la propriété intellectuelle des outils d'IA. Claude Code est l'environnement de développement assisté d'Anthropic, concurrent direct de GitHub Copilot et des outils de Cursor. Que son code source circule librement représente un risque stratégique non négligeable pour la startup, valorisée à plusieurs milliards de dollars. L'épisode révèle aussi les effets de bord des procédures DMCA automatisées sur GitHub, où la logique de réseau des forks rend difficile toute chirurgie juridique fine. Anthropic reste confronté à un défi considérable pour limiter la propagation du code fuité, désormais largement distribué.
UEDes développeurs européens ayant forké le dépôt officiel de Claude Code ont vu leurs projets supprimés à tort, mais l'incident relève du droit américain (DMCA) sans implications réglementaires directes pour la France ou l'UE.

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple
La startup californienne Kintsugi, fondée il y a sept ans, vient d'annoncer sa fermeture après avoir échoué à obtenir l'autorisation de la FDA pour son outil d'intelligence artificielle capable de détecter des signes de dépression et d'anxiété dans la voix humaine. Faute de clairance réglementaire obtenue dans les délais, l'entreprise a décidé de rendre la majeure partie de sa technologie disponible en open source. Certains composants pourraient trouver une seconde vie en dehors du secteur médical, notamment pour détecter les deepfakes audio. L'évaluation de la santé mentale repose encore aujourd'hui quasi exclusivement sur des questionnaires remplis par les patients et des entretiens cliniques, contrairement à la médecine physique qui s'appuie sur des analyses biologiques ou des imageries. L'approche de Kintsugi était radicalement différente : son logiciel n'analysait pas ce qu'une personne disait, mais la manière dont elle le disait, en cherchant dans les modulations vocales des marqueurs de troubles psychiques. Cette technologie représentait une promesse réelle de dépistage précoce et objectif, accessible sans infrastructure médicale lourde. Le parcours de Kintsugi illustre la difficulté structurelle d'introduire des outils d'IA dans le domaine médical aux États-Unis. La FDA soumet les dispositifs de diagnostic à des exigences strictes de validation clinique, un processus long et coûteux qui épuise souvent les ressources des startups avant qu'elles n'atteignent le marché. L'abandon de cette technologie au profit de l'open source pourrait néanmoins permettre à des chercheurs ou d'autres entreprises de poursuivre ces travaux, dans un contexte où la détection automatisée de la santé mentale reste un enjeu médical et technologique majeur.
UELe cas Kintsugi illustre les obstacles que rencontreront les startups européennes soumises à l'AI Act, qui classe les outils d'IA diagnostique médicale en risque élevé avec des exigences de validation clinique tout aussi contraignantes.