Aller au contenu principal
OutilsThe Decoder53min

Zhipu AI présente GLM-5V-Turbo, un modèle qui convertit des maquettes en code front-end

1 source couvre ce sujet·Source originale ↗·

Zhipu AI, une startup chinoise spécialisée dans l'intelligence artificielle, a lancé GLM-5V-Turbo, un nouveau modèle multimodal capable de traiter simultanément des images, des vidéos et du texte. Sa particularité principale est de convertir des maquettes de design directement en code front-end exécutable, sans intervention manuelle intermédiaire. Le modèle est conçu pour s'intégrer dans des workflows agentiques, où des systèmes autonomes enchaînent des tâches complexes de façon automatisée.

Cette capacité à transformer un visuel en code fonctionnel représente un gain de temps concret pour les équipes de développement web et d'interface utilisateur. Là où un développeur devait interpréter une maquette Figma ou Adobe XD puis écrire manuellement le HTML, CSS et JavaScript correspondant, GLM-5V-Turbo automatise cette conversion. Pour les startups, agences et équipes produit, cela peut accélérer significativement les cycles de prototypage et de livraison.

Zhipu AI s'inscrit dans une course très serrée entre laboratoires chinois pour proposer des modèles multimodaux compétitifs face aux géants américains comme OpenAI ou Google. Des acteurs comme Baidu, Alibaba et ByteDance investissent massivement dans ce segment. GLM-5V-Turbo cible explicitement les usages agentiques, un domaine en pleine expansion où les modèles ne se contentent plus de répondre à des questions mais exécutent des séquences d'actions autonomes dans des environnements logiciels.

À lire aussi

1ZDNET AI 

ChatGPT sur CarPlay : mon nouveau recours pour les questions où Siri échoue

Avec la mise à jour iOS 26.4 d'Apple, les conducteurs peuvent désormais interagir avec ChatGPT d'OpenAI directement depuis CarPlay, le système d'interface embarquée d'Apple. Cette intégration permet de mener de véritables conversations vocales avec le modèle d'OpenAI sans quitter l'interface de la voiture, ouvrant la porte à des réponses bien plus élaborées que ce que Siri propose habituellement. L'impact est immédiat pour les millions d'utilisateurs d'iPhone qui conduisent avec CarPlay au quotidien. Là où Siri échoue sur des questions complexes, nuancées ou nécessitant un raisonnement approfondi, ChatGPT prend le relais avec des réponses contextualisées et conversationnelles. Pour les professionnels qui passent du temps en voiture, cela transforme les trajets en sessions de travail vocal productives, sans toucher à l'écran. Cette intégration s'inscrit dans la stratégie d'Apple d'ouvrir progressivement ses plateformes aux modèles d'IA tiers, amorcée avec les accords entre Apple et OpenAI annoncés en 2024. OpenAI cherche ainsi à placer ChatGPT au coeur des usages quotidiens, bien au-delà du navigateur web, en s'insérant dans des environnements captifs comme la voiture. La question de la cohabitation à long terme entre Siri et ChatGPT au sein de l'écosystème Apple reste entière.

UELes millions de conducteurs français et européens utilisant CarPlay pourront accéder à ChatGPT directement depuis leur tableau de bord dès la mise à jour iOS 26.4, enrichissant concrètement l'expérience vocale au volant.

OutilsOutil
1 source
2Siècle Digital 

ChatGPT débarque sur CarPlay et c’est à la fois bluffant et frustrant

Avec l'arrivée d'iOS 18.4, Apple a ouvert une nouvelle catégorie d'applications pour CarPlay, autorisant pour la première fois des assistants conversationnels tiers à s'intégrer directement dans l'interface du tableau de bord. ChatGPT d'OpenAI est l'un des premiers à en profiter : l'application est désormais accessible depuis l'écran de voiture, permettant aux conducteurs d'interagir avec le modèle par commande vocale sans quitter l'environnement CarPlay. Apple devient ainsi la première grande plateforme automobile à accueillir un grand modèle de langage tiers dans son écosystème embarqué. Le résultat est à la fois impressionnant et limité. En conduite, ChatGPT démontre une capacité de compréhension et de formulation nettement supérieure à Siri sur les requêtes complexes — rédiger un message, répondre à une question ouverte, préparer un itinéraire avec des contraintes précises. Mais l'intégration reste partielle : l'assistant ne peut pas contrôler les fonctions natives de CarPlay, ni accéder aux contacts, à la navigation ou à la musique comme le ferait Siri. Pour les utilisateurs, c'est une puissance de traitement inédite dans l'habitacle, mais sans les permissions système qui en feraient un vrai copilote. Cette ouverture s'inscrit dans un contexte de pression croissante sur Apple, dont Siri accuse un retard visible face aux modèles génératifs concurrents. En intégrant ChatGPT dans iOS via le partenariat signé fin 2024, Apple joue la carte de la complémentarité plutôt que de la compétition frontale. La prochaine étape sera de savoir si Apple étend ces permissions à d'autres assistants comme Gemini de Google, et dans quelle mesure elle acceptera de partager le contrôle de son écosystème automobile avec des tiers.

UELes conducteurs français équipés d'un iPhone et CarPlay peuvent dès maintenant activer ChatGPT par commande vocale au volant, avec une compréhension nettement supérieure à Siri sur les requêtes complexes, malgré des permissions système encore limitées.

OutilsOutil
1 source
3Frandroid 

Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous

Frandroid a publié un guide complet destiné au grand public pour installer et faire tourner un grand modèle de langage (LLM) en local, sur PC Windows ou Mac, sans nécessiter de connexion internet ni de compte sur des services cloud comme ChatGPT. Le tutoriel s'adresse explicitement aux non-spécialistes, avec des outils comme Ollama ou LM Studio qui permettent de télécharger et lancer des modèles open source en quelques commandes. L'intérêt est multiple : confidentialité totale des données, fonctionnement hors ligne, et absence de coûts d'abonnement. Pour les professionnels manipulant des documents sensibles ou les développeurs souhaitant tester des modèles sans quota d'API, l'IA locale représente une alternative sérieuse aux offres SaaS. La qualité des résultats dépend toutefois de la puissance matérielle disponible, notamment de la RAM et du GPU. Ce type de guide émerge dans un contexte où l'écosystème open source des LLM s'est considérablement démocratisé depuis 2023, porté par des modèles comme LLaMA (Meta), Mistral ou Gemma (Google). Des outils d'interface accessibles ont réduit la barrière technique, rendant l'IA locale viable pour un public bien au-delà des chercheurs et ingénieurs. La tendance devrait s'amplifier à mesure que les modèles s'optimisent pour tourner sur du matériel grand public.

UELe guide valorise explicitement Mistral (entreprise française) parmi les modèles recommandés, et répond aux préoccupations de souveraineté numérique européenne en permettant un traitement des données entièrement local, sans dépendance aux services cloud américains.

OutilsTuto
1 source
4The Decoder 

Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur

Anthropic a annoncé que son assistant IA Claude est désormais capable de prendre directement le contrôle d'un ordinateur Mac ou Windows pour accomplir des tâches à la place de l'utilisateur. Cette fonctionnalité est intégrée à deux produits distincts : Claude Code, l'outil en ligne de commande destiné aux développeurs, et Cowork, une interface de collaboration homme-machine. Concrètement, Claude peut désormais naviguer dans des applications, manipuler des fichiers, remplir des formulaires ou exécuter des séquences d'actions complexes sur le bureau de l'utilisateur, sans intervention humaine à chaque étape. L'enjeu est considérable pour les professionnels techniques comme pour les usages grand public. Un développeur peut confier à Claude Code des tâches de refactorisation, de débogage ou de déploiement qui nécessitaient auparavant une attention manuelle constante. Pour les équipes utilisant Cowork, cela ouvre la voie à une véritable délégation de workflows entiers à l'IA, avec un gain de productivité potentiellement significatif. Cette capacité à agir dans un environnement graphique réel, et non seulement à générer du texte, représente un saut qualitatif dans l'utilité pratique des assistants IA. Cette annonce s'inscrit dans la continuité des travaux d'Anthropic sur le "computer use", une capacité expérimentale présentée fin 2024 via leur API, qui permettait déjà à Claude d'interagir avec des interfaces graphiques dans des environnements contrôlés. Le passage à une intégration native dans des produits grand public comme Claude Code et Cowork marque une étape de maturité. Anthropic entre ainsi en concurrence directe avec OpenAI et son opérateur d'ordinateur, ainsi qu'avec Microsoft Copilot, tous engagés dans la course aux agents IA capables d'agir de manière autonome sur les postes de travail.

UELes développeurs et entreprises européens peuvent désormais déléguer des workflows complets à l'IA via Claude Code et Cowork, sans attendre un équivalent européen — renforçant la dépendance du marché européen aux agents autonomes américains.

OutilsOutil
1 source