Aller au contenu principal
Claude, mon designer attitré
OutilsBen's Bites3h

Claude, mon designer attitré

1 source couvre ce sujet·Source originale ↗·

Anthropic a lancé Claude Opus 4.7 ce week-end, accompagné d'une série de mises à jour significatives pour son écosystème. Le nouveau modèle améliore notablement les capacités de vision, c'est-à-dire l'interprétation d'images, et introduit un niveau de raisonnement inédit baptisé « xhigh », qui s'insère entre les niveaux « high » et « max » déjà existants. Simultanément, Claude hérite d'un onglet Design, une interface de type canvas avec chat latéral permettant de générer des wireframes ou des prototypes haute fidélité à partir d'un formulaire de 5 à 10 questions. Le flux image vers prototype se révèle particulièrement efficace, bien que les générations restent limitées à 2 ou 3 sessions hebdomadaires sur l'abonnement à 20 dollars pendant cette phase de prévisualisation. Du côté de l'agent de code Codex, trois nouveautés ont été déployées : la fonctionnalité Computer Use, qui permet à l'agent d'utiliser des applications macOS en arrière-plan sans bloquer l'ordinateur de l'utilisateur ; Chronicle, un mécanisme opt-in qui exploite le contexte d'écran récent pour construire des souvenirs ; et un ensemble de plugins, dont la génération d'images. Par ailleurs, la startup Factory AI, qui développe l'agent de code Droid, a bouclé une levée de fonds de 150 millions de dollars, portant sa valorisation à 1,5 milliard de dollars.

Ces annonces illustrent la course effrénée des acteurs de l'IA à transformer leurs modèles en plateformes complètes. L'onglet Design de Claude, en particulier, s'attaque directement au marché du prototypage rapide jusqu'ici dominé par des outils comme Figma, en proposant une boucle de création entièrement guidée par le langage naturel. La fonctionnalité Computer Use de Codex, elle, cherche à dépasser les démos laborieuses de contrôle d'interface pour offrir une automatisation fluide en tâche de fond, ce qui représente un saut qualitatif si les performances tiennent à l'usage réel. La valorisation de Factory AI à 1,5 milliard confirme l'appétit des investisseurs pour les agents de développement logiciel autonomes.

Dans ce contexte d'accélération, OpenAI a connu une semaine difficile sur le plan humain : trois cadres de premier plan ont quitté l'entreprise, à savoir Kevin Weil, ancien directeur produit devenu responsable d'OpenAI for Science, Bill Peebles, co-créateur du générateur vidéo Sora, et Srinivas Narayanan, directeur technique des applications B2B. Ces départs simultanés alimentent les questions sur la cohésion interne d'OpenAI à un moment charnière. Vercel a également annoncé avoir subi une intrusion via le compte d'un employé compromis sur un autre produit IA tiers, soulignant les risques croissants liés à la prolifération des outils connectés. Enfin, la critique adressée à Claude Cowork, l'espace de travail collaboratif d'Anthropic, rappelle une tension persistante : les capacités avancées restent inaccessibles aux utilisateurs non initiés, risquant de nourrir la désillusion envers l'IA pour les prochains mois.

Impact France/UE

Les utilisateurs et designers européens peuvent accéder aux nouvelles fonctionnalités de prototypage de Claude via l'abonnement standard à 20 dollars, bien que les générations restent limitées en phase de prévisualisation.

À lire aussi

OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA
1Le Big Data 

OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA

OpenAI a publié le 21 avril 2026 un nouvel outil open-source baptisé Euphony, conçu pour visualiser les données de chat et les journaux de sessions Codex. Concrètement, l'outil permet aux développeurs de coller une URL publique ou d'importer un fichier local, et Euphony convertit automatiquement ces données brutes en une interface de messagerie lisible dans le navigateur. L'outil prend en charge le rendu Markdown complet, y compris les formules mathématiques et les blocs de code, une fonction de traduction intégrée pour les sessions en langue étrangère, ainsi qu'un mode éditeur permettant de modifier directement le texte et les métadonnées sans changer d'environnement. Le filtrage par requêtes JMESPath permet de trier des milliers de conversations selon des critères très précis, tandis qu'un mode Focus masque les appels d'outils techniques pour ne conserver que le dialogue essentiel. Les développeurs peuvent également partager un lien direct vers un message spécifique et annoter les réponses avec des étiquettes colorées personnalisables. Cet outil répond à un problème concret et quotidien pour quiconque travaille avec des LLMs en production : les logs de sessions d'IA sont volumineux, structurés de façon peu intuitive, et difficiles à analyser manuellement. En rendant ces données navigables visuellement, Euphony accélère les cycles d'évaluation et de débogage. La visualisation des jetons Harmony, qui montre comment le modèle segmente chaque mot, apporte une transparence supplémentaire sur le fonctionnement interne du pipeline. Pour les équipes qui construisent ou affinent des agents IA, la possibilité d'annoter, de filtrer et de partager des extraits précis transforme un outil de consultation en véritable tableau de bord d'évaluation collaborative. OpenAI positionne Euphony dans un contexte où Codex, son moteur de génération de code, est de plus en plus utilisé pour des tâches complexes et des sessions longues générant des volumes importants de données conversationnelles. La publication en open-source signale une stratégie d'ouverture vers la communauté développeur, cohérente avec d'autres initiatives récentes de la société visant à rendre l'écosystème Codex plus accessible. En intégrant nativement le contenu système et les métadonnées développeur dans l'interface, l'outil comble un angle mort des environnements de développement actuels, où l'inspection du contexte complet d'une session reste fastidieuse. La prochaine étape logique serait une intégration directe dans les environnements de développement ou les plateformes d'évaluation de modèles, un marché où des acteurs comme LangSmith ou Weights & Biases sont déjà bien établis.

OutilsOutil
1 source
Traçabilité de bout en bout avec DVC et Amazon SageMaker AI MLflow
2AWS ML Blog 

Traçabilité de bout en bout avec DVC et Amazon SageMaker AI MLflow

Les équipes de machine learning en production font face à un problème récurrent : retracer précisément l'origine d'un modèle déployé. Quelle version du jeu de données l'a entraîné ? Peut-on reproduire à l'identique un modèle mis en production il y a six mois ? Amazon Web Services propose une réponse concrète en combinant trois outils : DVC (Data Version Control), Amazon SageMaker AI et SageMaker AI MLflow Apps. L'architecture s'articule en quatre étapes : un job SageMaker Processing prétraite les données brutes et les versionne via DVC en les poussant vers Amazon S3 ; un job SageMaker Training clone le dépôt DVC à un tag Git précis, récupère le dataset exact via dvc pull, entraîne le modèle et enregistre tout dans MLflow. Chaque run MLflow stocke un identifiant datagitcommit_id, soit le hash DVC pointant vers le dataset exact dans S3. Le modèle entraîné est ensuite enregistré dans le MLflow Model Registry et peut être déployé sur un endpoint SageMaker. La chaîne de traçabilité complète devient alors : modèle en production → run MLflow → commit DVC → dataset dans Amazon S3. Cet enchaînement répond à un besoin critique dans les secteurs régulés : santé, services financiers, véhicules autonomes. Dans ces domaines, les exigences d'audit imposent de relier chaque modèle déployé à ses données d'entraînement précises, et de pouvoir exclure à la demande des enregistrements individuels des futurs cycles d'entraînement. Sans ce niveau de traçabilité, une question apparemment simple, "quelles données ont servi à entraîner le modèle actuellement en production ?", peut mobiliser plusieurs jours d'enquête dans des logs dispersés, des notebooks et des buckets S3. La solution proposée réduit ce risque opérationnel en rendant la traçabilité structurelle plutôt qu'optionnelle. DVC est un outil open source gratuit qui étend Git pour gérer des datasets volumineux et des artefacts ML que Git seul ne peut pas versionner. MLflow, de son côté, assure le suivi des expériences, le registre des modèles et la lignée. Les deux outils couvrent chacun la moitié du problème de traçabilité, et leur combinaison ferme la boucle. L'implémentation requiert un compte AWS avec des permissions sur SageMaker, S3, CodeCommit et IAM, Python 3.11 ou 3.12, et le SDK SageMaker v3.4.0 minimum. Les notebooks utilisent AWS CodeCommit comme backend Git pour les métadonnées DVC, mais l'architecture est compatible avec GitHub, GitLab ou Bitbucket moyennant un simple remplacement de l'URL remote. AWS publie des notebooks d'accompagnement permettant de déployer les deux patterns décrits, traçabilité au niveau du dataset et traçabilité au niveau de l'enregistrement individuel, directement dans un compte AWS existant.

UELa traçabilité structurelle décrite répond directement aux exigences de documentation et d'auditabilité imposées par l'AI Act européen pour les systèmes d'IA à haut risque dans les secteurs régulés (santé, finance, véhicules autonomes).

OutilsTuto
1 source
Von recommande tous les grands modèles IA pour l'analyse des revenus, et automatise leur combinaison
3VentureBeat AI 

Von recommande tous les grands modèles IA pour l'analyse des revenus, et automatise leur combinaison

Von, une nouvelle plateforme d'intelligence artificielle lancée par l'équipe derrière Rattle, une startup spécialisée dans l'automatisation des processus, s'attaque à un paradoxe bien connu dans les entreprises tech : si les outils comme Claude Code ou Cursor ont radicalement transformé le quotidien des développeurs, les équipes commerciales restent, elles, prisonnières de silos de données, de saisies manuelles dans les CRM et de reportings approximatifs. Fondée par Sahil Aggarwal, Von se positionne non pas comme une solution ponctuelle supplémentaire, mais comme une "couche d'intelligence" unifiée pour les équipes Go-To-Market. La plateforme commence par construire un "graphe de contexte" de l'entreprise en ingérant des données structurées issues de CRM comme Salesforce et HubSpot, ainsi que des données non structurées provenant d'enregistreurs d'appels (Gong, Zoom, Chorus), de fils de messagerie et de documentation interne. Elle s'appuie ensuite sur une architecture multi-modèles : Claude d'Anthropic pour le raisonnement de haut niveau, ChatGPT pour le traitement massif de données, et Gemini de Google pour la génération de contenus créatifs comme les présentations et rapports. Lors d'une démonstration, Von a analysé 101 comptes PME pour identifier les risques de désabonnement en un peu plus de trois minutes, une tâche qu'un analyste humain effectuerait en une à deux semaines. L'enjeu est considérable pour les opérations commerciales. L'un des problèmes chroniques des équipes de vente est l'écart entre ce qui est enregistré dans un CRM et ce qui s'est réellement dit lors d'un appel client. Von résout ce problème en croisant automatiquement les transcriptions d'appels avec les données Salesforce, permettant d'identifier des incohérences dans les raisons de pertes de deals ou d'évaluer la santé d'une opportunité commerciale sur la base du sentiment réel exprimé, et non d'une mise à jour manuelle d'un commercial. La plateforme génère également des fiches de briefing pré-appel, des analyses de victoires et défaites commerciales regroupées par thèmes, et automatise les tâches administratives Salesforce à faible valeur ajoutée. En agissant comme un "Data Scientist IA" ou un "VP RevOps" virtuel, Von promet de libérer les équipes des tâches de reporting répétitives pour les recentrer sur la vente. Ce positionnement s'inscrit dans une tendance plus large de l'IA d'entreprise : après avoir conquis les workflows techniques, les grandes plateformes cherchent à s'implanter dans les fonctions commerciales et opérationnelles, historiquement moins automatisées. Von hérite de l'expertise de Rattle dans l'intégration des outils de vente, ce qui lui confère une connaissance fine des flux de données GTM. Le choix d'une stratégie "mixture of models" plutôt que d'un modèle unique reflète une maturité technique croissante dans l'industrie, où l'optimisation coût-performance dicte désormais l'architecture des solutions. La prochaine étape pour Von sera de démontrer sa capacité à s'imposer face à des acteurs établis comme Clari, Gong ou Salesforce Einstein dans un marché de l'intelligence des revenus déjà très concurrentiel et en pleine consolidation.

OutilsOutil
1 source
Snowflake élargit ses plateformes IA techniques et grand public
4AI News 

Snowflake élargit ses plateformes IA techniques et grand public

Snowflake a annoncé une expansion significative de ses deux plateformes d'intelligence artificielle, Snowflake Intelligence et Cortex Code, lors d'une mise à jour publiée cette semaine. Snowflake Intelligence cible les employés non techniques qui souhaitent automatiser des tâches métier en langage naturel : préparer des présentations, lancer des analyses multi-étapes ou envoyer des messages de suivi. Cortex Code, lui, s'adresse aux équipes de développement logiciel en entreprise. Parmi les nouveautés : des intégrations élargies avec Google Workspace, Jira, Salesforce et Slack via le protocole MCP (Model Context Protocol), de nouvelles connexions à des sources de données externes comme AWS Glue, Databricks et PostgreSQL, ainsi qu'un support du protocole ACP (Agent Communication Protocol). Une extension VS Code pour Cortex Code est en préversion privée, et un plugin Snowflake pour Claude Code est en cours de développement. Une application iOS pour Snowflake Intelligence doit entrer en préversion publique prochainement. La plateforme revendique plus de 9 100 clients utilisant ses produits IA chaque semaine, et plus de la moitié de sa base cliente utilise désormais l'une ou l'autre des deux plateformes depuis leur lancement il y a six mois. Ces annonces illustrent la montée en puissance des plateformes dites "agentiques" dans l'entreprise, capables d'exécuter des séquences de tâches de manière autonome à partir d'une simple instruction en langage naturel. Pour les grandes organisations, l'enjeu est de permettre à des collaborateurs sans compétences techniques de piloter des flux de travail complexes, tout en maintenant un contrôle strict sur les droits d'accès et la conformité aux politiques internes. La possibilité de sauvegarder et partager des workflows, combinée à des fenêtres de contexte étendues qui mémorisent les préférences utilisateur, réduit la friction dans l'adoption quotidienne. Le mode "Plan Mode", qui permet de prévisualiser et valider un flux avant son exécution, répond directement aux craintes des entreprises face aux agents IA autonomes. Ces développements s'inscrivent dans une course intense entre fournisseurs de données cloud pour devenir la couche d'orchestration IA de référence en entreprise. Snowflake, historiquement positionné sur le stockage et l'analyse de données, cherche à élargir son emprise vers l'exécution d'actions concrètes, un territoire que se disputent aussi Microsoft, Salesforce et Google. Les nouvelles fonctionnalités découlent en partie du projet SnowWork, une initiative de recherche lancée le mois dernier pour tester la plateforme et collecter les retours utilisateurs. L'ouverture via MCP et ACP signale une stratégie d'interopérabilité délibérée : plutôt que de construire un écosystème fermé, Snowflake mise sur la connectivité avec les outils déjà en place dans les organisations, pariant que la valeur viendra de l'orchestration plutôt que du remplacement.

OutilsOutil
1 source