Aller au contenu principal
Figma ouvre son canevas aux agents IA pour créer et modifier des composants
OutilsBlog du Modérateur6sem

Figma ouvre son canevas aux agents IA pour créer et modifier des composants

Résumé IASource uniqueImpact UE
Source originale ↗·

Figma franchit une étape majeure dans l'intégration de l'intelligence artificielle au sein des workflows de design : la plateforme ouvre désormais son canevas aux agents IA, leur permettant de créer et modifier des composants directement dans les fichiers de design. Cette évolution s'appuie sur un nouvel outil intégré au serveur MCP (Model Context Protocol) de Figma, qui donne aux agents un accès en écriture contrôlé à l'environnement de création.

L'enjeu est considérable pour le secteur du design produit. Jusqu'ici cantonnés à la lecture ou à la génération d'interfaces dans des environnements isolés, les agents IA peuvent désormais intervenir directement dans les fichiers de travail des équipes, en respectant les design tokens, les composants partagés et les conventions propres à chaque organisation. Cela ouvre la voie à une automatisation partielle des tâches répétitives — génération de variantes, mise à jour de bibliothèques de composants, adaptation responsive — sans sortir de l'environnement Figma.

Ce qui distingue cette approche, c'est la prise en compte des standards d'équipe : l'outil MCP ne laisse pas les agents opérer en roue libre. Les modifications respectent les contraintes définies par chaque organisation, ce qui limite les risques de cohérence visuelle et réduit la friction avec les processus de revue existants. Figma positionne ainsi son infrastructure comme une couche d'orchestration compatible avec les grands modèles de langage et les frameworks d'agents comme Claude, GPT-4o ou Gemini.

Cette annonce s'inscrit dans la stratégie plus large de Figma pour ne pas se laisser distancer par des concurrents qui intègrent l'IA de plus en plus profondément dans leurs outils de création. Avec l'essor des AI coding agents capables de générer des interfaces complètes, la capacité à boucler le cycle design-développement directement dans Figma — sans export ni recopie manuelle — devient un argument différenciant fort auprès des équipes produit.

Impact France/UE

Les équipes produit et design européennes utilisant Figma peuvent désormais déléguer la génération et modification de composants à des agents IA, accélérant leurs flux de travail tout en maintenant la cohérence de leurs systèmes de design.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google Stitch : une plateforme IA pour créer des interfaces (et couler Figma)
1Le Big Data 

Google Stitch : une plateforme IA pour créer des interfaces (et couler Figma)

Google a lancé Stitch, une plateforme IA de vibe design issue du rachat de Galileo AI en 2025, qui permet de générer des interfaces complètes et des prototypes interactifs à partir d'une simple description textuelle ou vocale, sans wireframe ni compétences en design. Propulsée par les modèles Gemini, elle introduit un format DESIGN.md pour exporter/importer des systèmes de design entre logiciels, et multiplie selon Josh Woodward la vitesse d'exploration créative par dix. La plateforme représente une menace directe pour Figma, au point que les marchés financiers ont déjà réagi négativement à son annonce.

UELes designers et agences françaises utilisant Figma pourraient migrer vers Stitch, redessinant l'écosystème des outils de design en Europe.

OutilsOutil
1 source
2InfoQ AI 

LinkedIn présente son agent de mémoire cognitive pour les agents IA

LinkedIn a dévoilé le Cognitive Memory Agent (CMA), une couche d'infrastructure d'IA générative destinée à rendre les systèmes d'intelligence artificielle persistants et conscients du contexte dans lequel ils opèrent. Ce framework fournit une mémoire durable organisée en trois couches distinctes : épisodique, qui retient les interactions passées ; sémantique, qui stocke les connaissances générales ; et procédurale, qui encode les comportements appris. Le CMA prend également en charge la coordination entre plusieurs agents, la récupération d'informations et la gestion complète du cycle de vie des mémoires. Cette initiative s'attaque à une limitation fondamentale des grands modèles de langage : leur absence d'état entre les sessions. Sans mémoire externe, chaque interaction repart de zéro, rendant impossible toute personnalisation durable. En déployant le CMA dans ses propres applications, LinkedIn ouvre la voie à des assistants IA capables de se souvenir des préférences professionnelles d'un utilisateur, de ses recherches d'emploi passées ou de ses habitudes de networking, transformant ainsi l'expérience sur une plateforme de plus d'un milliard d'utilisateurs. La mémoire des agents est devenue l'un des chantiers prioritaires de l'industrie, alors que les entreprises cherchent à faire passer leurs systèmes d'IA du mode réactif au mode autonome et continu. OpenAI, Google DeepMind et Anthropic développent des architectures comparables, mais LinkedIn dispose d'un avantage singulier : une base de données professionnelles sans équivalent. Le CMA positionne l'entreprise pour intégrer ces capacités directement dans ses outils de recrutement, de formation et de recommandation, avec des implications profondes sur la façon dont les professionnels interagiront avec l'IA au quotidien.

UELes millions de professionnels français inscrits sur LinkedIn pourraient voir leurs interactions avec les outils de recrutement et de formation de la plateforme profondément transformées par cette couche de mémoire persistante.

OutilsOpinion
1 source
Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées
3AI News 

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées

Apple, Qualcomm et d'autres acteurs majeurs de l'industrie technologique développent une nouvelle génération d'assistants IA capables d'agir de manière autonome au sein des applications, réserver des services, publier du contenu, naviguer dans des flux complexes. Lors d'une phase bêta privée, un de ces systèmes agentiques a ainsi parcouru l'intégralité d'un tunnel de paiement dans une application avant de s'arrêter net à l'écran de confirmation, attendant le feu vert de l'utilisateur. Ces agents ne sont pas conçus pour agir librement : ils intègrent des points de validation obligatoires, notamment pour toute action sensible liée aux paiements, aux modifications de compte ou aux publications. Les fournisseurs de services de paiement sont déjà en discussion pour intégrer leurs systèmes d'authentification sécurisée directement dans ces flux agentiques, bien que ces dispositifs soient encore en cours de développement. Ce modèle dit "human-in-the-loop", où l'agent prépare l'action mais laisse la décision finale à l'humain, répond à un enjeu concret : à mesure que l'IA gagne en capacité d'action, les risques d'erreur se transforment en risques financiers ou de fuite de données. Pour les utilisateurs grand public, une réservation mal déclenchée ou une transaction non souhaitée peut avoir des conséquences immédiates. Les entreprises tentent donc de limiter le périmètre d'action de ces agents : plutôt que de leur donner un accès total aux applications et aux données, elles définissent précisément quels services l'IA peut toucher, dans quelles conditions, et avec quels droits. Sur l'appareil, le traitement local des données vise également à éviter que des informations sensibles soient transmises vers des serveurs externes. Le débat sur la gouvernance des IA agentiques s'était jusqu'ici concentré sur les usages entreprise, cybersécurité, automatisation à grande échelle, conformité réglementaire. Le déploiement grand public introduit une dimension différente : des millions d'utilisateurs, souvent peu familiers des risques, interagissant avec des systèmes capables d'engager des dépenses ou de modifier des comptes en quelques secondes. Apple, dont les travaux de recherche ont exploré des mécanismes de pause avant toute action non explicitement demandée, semble vouloir établir un standard : des environnements contrôlés où l'autonomie de l'agent est réelle mais bornée. Dans le contexte du règlement européen sur l'IA, qui entre progressivement en application en 2026, cette architecture "agentique avec garde-fous" pourrait s'imposer comme la norme par défaut pour tout acteur souhaitant déployer ces technologies auprès du grand public.

UEL'architecture 'agentique avec garde-fous' pourrait s'imposer comme norme de conformité sous le règlement européen sur l'IA, qui entre progressivement en application en 2026, imposant des contraintes concrètes aux acteurs déployant des agents IA auprès du grand public en Europe.

OutilsOpinion
1 source
4The Verge AI 

Google met à jour son mode IA pour ouvrir les liens sans quitter la page

Google enrichit son mode IA dans Chrome avec une nouvelle fonctionnalité permettant d'ouvrir des liens sources directement aux côtés de la conversation, sans quitter la page. Concrètement, lorsqu'un utilisateur clique sur une source citée par l'IA, le site s'affiche en vue partagée, côte à côte avec le chat, plutôt que dans un nouvel onglet. Cette mise à jour s'applique à AI Mode, l'interface de recherche conversationnelle intégrée à Google Search depuis 2025. Ce changement améliore significativement la fluidité du parcours de recherche : l'utilisateur peut désormais consulter la source primaire tout en continuant à poser des questions à l'IA sur le contenu affiché. Pour les professionnels et chercheurs qui jonglent entre sources multiples, cela réduit la friction entre la vérification des faits et l'exploration assistée. Google positionne ainsi AI Mode comme un véritable environnement de travail intégré, pas seulement un moteur de réponses. AI Mode a été lancé l'an dernier comme une surcouche conversationnelle à Google Search, logée dans un panneau latéral. Depuis, Google y a progressivement ajouté des capacités comme la génération d'images de tenues ou de décoration, la visualisation de voyages, et la recherche de réservations de restaurants. Cette nouvelle fonctionnalité s'inscrit dans une course plus large entre Google, Microsoft (Copilot dans Edge) et d'autres acteurs pour transformer le navigateur lui-même en interface d'IA contextuelle, où la frontière entre recherche et navigation s'efface progressivement.

UELes utilisateurs français de Chrome bénéficient directement de cette amélioration de l'interface AI Mode, qui réduit la friction lors de la vérification des sources dans les recherches assistées par IA.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour