Aller au contenu principal
Anthropic lance Claude Design, un outil IA qui transforme des descriptions en prototypes et concurrence Figma
OutilsVentureBeat AI4h

Anthropic lance Claude Design, un outil IA qui transforme des descriptions en prototypes et concurrence Figma

1 source couvre ce sujet·Source originale ↗·

Anthropic a lancé ce jeudi Claude Design, un nouvel outil issu de sa division Anthropic Labs qui permet de créer des maquettes visuelles, prototypes interactifs, présentations et supports marketing à partir de simples descriptions textuelles. Disponible immédiatement en aperçu de recherche pour tous les abonnés payants de Claude (Pro, Max, Team et Enterprise), le produit repose sur Claude Opus 4.7, le modèle de vision le plus puissant de la société, également publié aujourd'hui. Le flux de travail fonctionne comme une conversation créative : l'utilisateur décrit ce dont il a besoin, Claude génère une première version, puis l'affinage s'effectue via des commentaires en ligne, de l'édition directe et des curseurs d'ajustement générés automatiquement pour modifier espacement, couleurs et mise en page. Lors de la prise en main initiale, Claude analyse le code source et les fichiers de design d'une équipe pour construire un système de design cohérent, appliqué automatiquement à tous les projets suivants. Lorsqu'une maquette est prête, l'outil emballe tout dans un paquet de transfert transmissible à Claude Code en une seule instruction, bouclant ainsi la boucle de l'idée au code de production au sein de l'écosystème Anthropic.

Ce lancement représente la percée la plus agressive d'Anthropic au-delà de son coeur de métier de fournisseur de modèles de langage, dans un territoire jusqu'ici occupé par Figma, Adobe et Canva. Les gains de productivité rapportés par les premiers utilisateurs sont frappants : chez Brilliant, société d'edtech, les pages les plus complexes nécessitaient plus de vingt prompts dans les outils concurrents contre seulement deux dans Claude Design. L'équipe produit de Datadog a de son côté comprimé un cycle habituellement hebdomadaire de briefs, maquettes et revues en une seule conversation. Pour les équipes de design, c'est un changement de paradigme : les prototypes deviennent testables sans revue de code, et la passation au développement inclut l'intention de design, pas seulement les fichiers.

Cette offensive intervient dans un contexte de croissance explosive pour Anthropic, dont les revenus annualisés sont passés de 9 milliards de dollars fin 2025 à environ 20 milliards début mars 2026, puis à plus de 30 milliards début avril 2026, selon Bloomberg. La société est en discussions préliminaires avec Goldman Sachs, JPMorgan et Morgan Stanley en vue d'une introduction en bourse potentiellement dès octobre 2026. Le lancement de Claude Design coïncide avec un signal symbolique fort : Mike Krieger, directeur produit d'Anthropic, vient de démissionner du conseil d'administration de Figma, rendant difficile à soutenir l'idée que les deux outils seraient purement complémentaires. Anthropic affiche désormais clairement ses ambitions de devenir une entreprise de produits à pile complète, du modèle fondateur au produit livré.

Impact France/UE

Les équipes produit et design européennes abonnées à Claude peuvent tester immédiatement Claude Design pour remplacer Figma dans leurs workflows de prototypage, avec un accès direct dès aujourd'hui.

À lire aussi

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock
1AWS ML Blog 

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock

Amazon Web Services a publié un tutoriel détaillé expliquant comment utiliser la technique de distillation de modèles sur Amazon Bedrock pour optimiser les systèmes de recherche sémantique vidéo. Le cœur du problème : les modèles de grande taille comme Claude Haiku d'Anthropic offrent une excellente précision pour interpréter l'intention de recherche des utilisateurs, mais ils allongent le temps de réponse à 2 à 4 secondes, représentant à eux seuls 75 % de la latence totale. La solution proposée consiste à transférer l'intelligence de routage d'un grand modèle dit "enseignant", Amazon Nova Premier, vers un modèle beaucoup plus léger dit "étudiant", Amazon Nova Micro. Le résultat : une réduction des coûts d'inférence de plus de 95 % et une baisse de la latence de 50 %, sans sacrifier la qualité de routage. L'enjeu est considérable pour les entreprises qui gèrent de larges catalogues vidéo. Lorsqu'un utilisateur tape "Olivia qui parle de son enfance dans la pauvreté", le système doit décider automatiquement quels aspects de la vidéo interroger en priorité : les métadonnées textuelles, la transcription audio, les données visuelles ou les informations structurées. Cette logique de routage devient rapidement complexe à l'échelle enterprise, où les attributs peuvent inclure les angles de caméra, le sentiment, les droits de diffusion ou des taxonomies métier propriétaires. Un modèle plus petit et distillé qui maîtrise cette tâche précise permet de traiter davantage de requêtes simultanément, à un coût marginal quasi nul, ce qui change fondamentalement l'équation économique des moteurs de recherche multimodaux. La distillation de modèles se distingue du fine-tuning supervisé classique par un avantage pratique majeur : elle ne nécessite pas de dataset entièrement étiqueté par des humains. Amazon Bedrock génère automatiquement jusqu'à 15 000 paires prompt-réponse en interrogeant le modèle enseignant, en appliquant des techniques de synthèse et d'augmentation de données. Dans ce pipeline, 10 000 exemples synthétiques ont été produits via Nova Premier, chargés sur Amazon S3, puis utilisés pour entraîner Nova Micro. Le modèle résultant est ensuite évalué via Amazon Bedrock Model Evaluation, comparé à la base Nova Micro et au Claude Haiku original. AWS a publié l'intégralité du notebook Jupyter, le script de génération des données et les utilitaires d'évaluation sur GitHub, rendant cette approche reproductible pour toute équipe souhaitant industrialiser la recherche vidéo à grande échelle.

OutilsTuto
1 source
Recherche sémantique vidéo avec Amazon Nova Multimodal Embeddings
2AWS ML Blog 

Recherche sémantique vidéo avec Amazon Nova Multimodal Embeddings

Amazon a lancé Nova Multimodal Embeddings, un modèle d'embedding unifié disponible sur Amazon Bedrock, capable de traiter simultanément du texte, des images, de la vidéo et de l'audio dans un espace vectoriel sémantique commun. L'objectif est de résoudre un problème concret qui freine l'industrie audiovisuelle : permettre de rechercher dans des vidéos par le sens, et non par des mots-clés exacts. Concrètement, le modèle génère des vecteurs de 1 024 dimensions qui encodent à la fois les signaux visuels et audio d'un segment vidéo, stockés ensuite dans Amazon S3. L'architecture de référence publiée par Amazon combine une phase d'ingestion en six étapes, upload dans S3, découpage en plans via FFmpeg sur AWS Fargate, traitement parallèle avec embeddings visuels/audio, transcription via Amazon Transcribe, et détection de célébrités via Amazon Rekognition, et une phase de recherche hybride qui fusionne recherche sémantique et lexicale pour produire une liste de résultats classés. L'enjeu est majeur pour tous les secteurs qui gèrent des bibliothèques vidéo volumineuses. Une chaîne sportive peut désormais retrouver instantanément le moment précis où un joueur marque, un studio peut identifier chaque scène d'un acteur dans des milliers d'heures d'archives, et une rédaction peut extraire des images par ambiance, lieu ou événement pour publier plus vite que ses concurrents. Ce qui change fondamentalement, c'est que la recherche n'est plus limitée au dialogue ou aux métadonnées textuelles : une requête comme "une course-poursuite tendue avec des sirènes" retrouve à la fois l'événement visuel et l'événement sonore sans que l'un ou l'autre ait besoin d'être transcrit. La précision de recherche s'améliore donc sur les contenus riches en action, en musique ou en sons d'ambiance, là où les approches textuelles échouaient systématiquement. L'approche dominante jusqu'ici consistait à convertir toute la vidéo en texte, transcription automatique, sous-titrage, tags manuels, puis à appliquer des embeddings textuels classiques. Cette méthode souffre de deux limites structurelles : la dimension temporelle disparaît dans la conversion, et les erreurs de transcription se propagent dès que la qualité audio ou visuelle est insuffisante. Amazon positionne Nova Multimodal Embeddings comme une rupture avec ce paradigme, en traitant nativement toutes les modalités sans passer par le texte comme pivot. Le modèle s'inscrit dans une compétition directe avec les offres multimodales de Google et OpenAI sur le segment des embeddings haute précision. Amazon met à disposition une implémentation de référence déployable, signalant une volonté de s'imposer rapidement comme infrastructure de référence pour la recherche vidéo à grande échelle.

UELes entreprises et médias européens gérant de grandes bibliothèques vidéo sur AWS peuvent désormais implémenter une recherche sémantique multimodale native sans infrastructure supplémentaire.

OutilsOpinion
1 source
Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel
3AWS ML Blog 

Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel

L'équipe Technology, AI, and Analytics (TAA) d'AWS Marketing a développé, en partenariat avec la startup Gradial, une solution d'IA agentique capable de réduire le temps de publication d'une page web de quatre heures à environ dix minutes, soit une diminution de plus de 95 %. Déployée sur Amazon Bedrock, cette solution s'appuie sur les modèles Anthropic Claude et Amazon Nova pour orchestrer l'ensemble du workflow de création de contenu : interprétation des briefs en langage naturel, assemblage des composants de page, validation des standards d'accessibilité et de conformité, jusqu'au lancement effectif sur les canaux digitaux. Le système intègre un serveur Model Context Protocol (MCP) pour la validation en temps réel et se connecte directement aux systèmes de gestion de contenu (CMS) d'entreprise. Cette accélération libère les équipes marketing, Digital Marketing Managers et Product Marketing Managers chez AWS, des tâches de coordination et d'assemblage répétitives qui monopolisaient leur temps. Auparavant, la publication d'une seule page nécessitait un appel de lancement, une file d'attente de priorisation, plusieurs allers-retours entre équipes, puis des cycles de révision successifs pour valider les textes, les visuels, les liens et la conformité technique. Un seul problème d'accessibilité sur une image suffisait à relancer un nouveau cycle complet. En automatisant cette orchestration, les équipes peuvent désormais se concentrer sur les tâches à plus forte valeur ajoutée : identifier les problèmes clients, affiner les messages et concevoir des campagnes plus efficaces. Ce projet s'inscrit dans une tendance de fond où les grandes entreprises tech cherchent à industrialiser leurs workflows marketing grâce à l'IA agentique. AWS, qui opère l'une des infrastructures digitales les plus complexes au monde, fait face à des exigences particulièrement élevées en matière de cohérence de marque, d'accessibilité et de conformité réglementaire à grande échelle. Le recours à Gradial, une startup spécialisée dans la modernisation des organisations marketing, illustre la montée en puissance des solutions verticales construites sur des plateformes d'IA fondationnelles comme Bedrock. L'enjeu dépasse AWS : toute organisation publiant du contenu web en volume est confrontée aux mêmes goulots d'étranglement. La généralisation de ce type d'agent autonome capable de piloter des CMS d'entreprise pourrait profondément transformer les métiers du marketing digital, en faisant de la coordination humaine l'exception plutôt que la règle.

OutilsOutil
1 source
Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic
4Le Big Data 

Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic

Anthropic a lancé le 17 avril 2026 Claude Design, un outil de création visuelle intégré directement à Claude et propulsé par Claude Opus 4.7, le modèle de vision le plus avancé de la société. Disponible en prévisualisation pour les abonnés Pro, Max, Team et Enterprise, l'outil permet de générer des interfaces, des présentations, des maquettes et des pages marketing à partir d'une simple description en langage naturel. L'utilisateur décrit son besoin, Claude produit une première version exploitable, puis des ajustements peuvent être demandés en temps réel, y compris via des curseurs générés automatiquement. Lors de la configuration initiale, Claude Design analyse les ressources visuelles de l'entreprise pour en extraire un système de design interne, couleurs, typographies, composants, garantissant que chaque création reste cohérente avec l'identité de marque. L'accès est inclus dans les abonnements existants sans coût supplémentaire, bien que les entreprises doivent l'activer manuellement depuis les paramètres d'administration avant de pouvoir l'utiliser via claude.ai/design. L'outil s'adresse explicitement à un public bien plus large que les seuls designers. Les chefs de produit peuvent transformer une intuition fonctionnelle en maquette partageable sans toucher à Figma ou PowerPoint ; les équipes marketing peuvent produire des pages de campagne ou des visuels pour les réseaux sociaux sans jongler entre plusieurs logiciels. La collaboration est native : les projets sont partageables au sein d'une organisation avec des niveaux d'accès différenciés, certains membres pouvant consulter, d'autres modifier et interagir directement avec Claude. Cette approche réduit concrètement le temps de cycle entre l'idée et le prototype, supprime les dépendances inter-équipes et diminue le besoin de compétences techniques spécialisées pour produire des livrables visuels professionnels. Claude Design s'inscrit dans une compétition intense autour des outils de génération d'interfaces, où des acteurs comme Vercel avec v0, ou Figma avec ses propres fonctions IA, occupent déjà une place significative. Anthropic choisit ici de capitaliser sur la force de frappe de son modèle phare Opus 4.7, en particulier ses capacités de vision avancées, pour proposer une alternative directement intégrée à l'écosystème Claude déjà adopté en entreprise. La décision de désactiver l'outil par défaut pour les organisations reflète une prudence face aux questions de gouvernance et de contrôle des contenus générés en contexte professionnel. La prochaine étape décisive sera l'évaluation de la qualité et de la cohérence des créations produites dans des conditions réelles d'utilisation, notamment pour des identités de marque complexes ou des interfaces à forte contrainte d'accessibilité.

UELes entreprises européennes abonnées aux plans Pro, Max, Team ou Enterprise peuvent activer Claude Design dès maintenant pour accélérer leurs cycles de création visuelle sans coût supplémentaire.

OutilsOutil
1 source