Aller au contenu principal

Outils

50 sur 795 articles

Les meilleurs outils IA : applications, produits et services propulsés par l'intelligence artificielle.

Alibaba ouvre l'application Qwen à des partenaires externes avec China Eastern Airlines
1SCMP Tech OutilsOutil

Alibaba ouvre l'application Qwen à des partenaires externes avec China Eastern Airlines

Alibaba a annoncé son premier partenariat externe pour son application grand public d'intelligence artificielle Qwen, en s'associant à China Eastern Airlines, l'une des trois grandes compagnies aériennes nationales chinoises. Grâce à cette intégration, les utilisateurs de l'application Qwen peuvent désormais gérer l'intégralité du processus de réservation de vol, recherche de billets, achat, sélection du siège et enregistrement, au sein d'une seule interface conversationnelle en langage naturel, sans quitter l'application. Ce partenariat marque une étape décisive dans la stratégie d'Alibaba : faire de Qwen non plus un simple assistant textuel, mais un agent capable d'agir concrètement dans le monde réel pour le compte de l'utilisateur. L'intégration avec China Eastern illustre ce qu'on appelle les capacités « agentiques », la possibilité pour un modèle de langage d'enchaîner des actions complexes dans des systèmes tiers. Pour les voyageurs chinois, cela représente un gain de fluidité considérable, toutes les étapes d'une réservation étant centralisées dans un seul dialogue. Cette initiative s'inscrit dans une course mondiale aux assistants IA capables de se connecter à des services réels. En Chine, Alibaba fait face à une concurrence intense de Baidu, ByteDance et surtout de DeepSeek, dont la montée en puissance a redistribué les cartes début 2025. En ouvrant Qwen à des partenaires extérieurs, Alibaba cherche à constituer un écosystème d'intégrations qui rendrait son application indispensable au quotidien, à l'image de ce que WeChat a réussi avec ses mini-programmes il y a près d'une décennie.

1 source
Tesla Chine intègre le modèle d'IA Doubao dans son système embarqué
2Pandaily 

Tesla Chine intègre le modèle d'IA Doubao dans son système embarqué

Tesla China a finalisé le dépôt réglementaire de son système vocal embarqué le 20 avril 2026, ouvrant la voie à l'intégration du modèle d'intelligence artificielle Doubao de ByteDance dans ses véhicules vendus en Chine. Selon des informations relayées par AI Daily, la page officielle de Tesla China avait déjà révélé dans ses "Conditions d'utilisation de l'assistant vocal embarqué" que la Model Y L serait équipée à la fois du modèle Doubao et de DeepSeek, tous deux accessibles via Volcano Engine, la plateforme cloud de ByteDance. La répartition des rôles est précise : Doubao prend en charge les commandes vocales courantes, réglage de la navigation, contrôle de la lecture multimédia, ajustements climatiques et consultation du manuel propriétaire, tandis que DeepSeek alimente des fonctionnalités conversationnelles plus avancées, permettant des échanges de nature plus générale avec le véhicule. Cette intégration marque une étape concrète dans la localisation de l'expérience Tesla en Chine, marché qui représente une part critique de ses ventes mondiales. En adoptant deux modèles d'IA développés par des acteurs chinois majeurs, Tesla reconnaît implicitement que les LLM occidentaux ne suffisent pas à répondre aux attentes des consommateurs locaux, qu'il s'agisse de la langue, des usages culturels ou des exigences réglementaires. Pour les utilisateurs, cela se traduit par un assistant embarqué nettement plus capable et mieux adapté aux conditions de conduite chinoises. Cette décision s'inscrit dans un contexte de concurrence intense sur le marché automobile chinois, où des constructeurs locaux comme BYD, NIO ou Li Auto intègrent depuis plusieurs années des assistants IA avancés directement dans leurs plateformes. Tesla, longtemps en retard sur ce volet en Chine, avait déjà engagé des discussions avec Baidu pour la cartographie et les services connectés. Le choix de Doubao, modèle phare de ByteDance aux centaines de millions d'utilisateurs, et de DeepSeek, devenu en quelques mois une référence mondiale en matière d'efficience des LLM, reflète la volonté de Tesla de s'aligner rapidement sur les standards locaux pour ne pas perdre de terrain face à une industrie nationale en pleine accélération technologique.

OutilsActu
1 source
Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique
3MarkTechPost 

Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique

Un tutoriel publié récemment détaille comment concevoir un système multi-agents de niveau production à l'aide du framework CAMEL, une bibliothèque Python open source dédiée à l'orchestration d'agents LLM. Le pipeline décrit met en scène cinq agents spécialisés aux rôles clairement délimités : un planificateur, un chercheur, un rédacteur, un critique et un rééditeur. L'ensemble repose sur GPT-4o d'OpenAI (via l'API), la validation de schémas avec Pydantic 2.7, et l'affichage structuré via Rich 13.7. Concrètement, le système génère des synthèses techniques documentées de façon autonome, en combinant recherche web en temps réel, échantillonnage par auto-cohérence et raffinement itératif piloté par critique interne. Ce type d'architecture multi-agents représente une évolution significative par rapport aux approches LLM classiques en pipeline simple. En distribuant les responsabilités entre agents distincts, chacun doté de contraintes de sortie précises (schémas JSON validés par Pydantic), le système réduit les hallucinations et améliore la cohérence des résultats. L'ajout d'un agent critique qui évalue la production de l'agent rédacteur, puis déclenche un agent rééditeur si le score est insuffisant, introduit une boucle de contrôle qualité autonome : le système s'auto-corrige sans intervention humaine. Pour les équipes produit ou data qui cherchent à industrialiser des workflows de génération de contenu ou d'analyse, cette approche offre un cadre reproductible, modulaire et extensible. CAMEL (Communicative Agents for "Mind" Exploration of Large Language Model Society) est un framework open source initié en 2023, qui a gagné en maturité avec des versions stables permettant l'intégration native d'outils web, de modèles multi-plateformes et de mécanismes de validation structurée. Le tutoriel s'inscrit dans un mouvement plus large d'industrialisation des agents LLM, où des acteurs comme LangChain, AutoGen de Microsoft ou CrewAI cherchent à standardiser la façon dont on compose des agents spécialisés. L'enjeu central est de passer du prototype expérimental au système fiable en production, ce qui exige précisément les mécanismes décrits ici : contrôle de schéma, gestion des erreurs, logique de retry et traçabilité des sorties. Les prochaines évolutions de ces frameworks devraient intégrer davantage de mémoire persistante entre agents et des mécanismes de délégation dynamique des tâches, rapprochant ces systèmes des premières formes d'automatisation cognitive véritablement autonome.

OutilsTuto
1 source
OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services
4VentureBeat AI 

OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services

OpenAI a lancé ce jeudi une nouvelle offre baptisée « Workspace Agents », destinée aux entreprises utilisant ChatGPT dans un cadre professionnel. Disponible dès maintenant pour les abonnés ChatGPT Business à 20 dollars par utilisateur par mois, ainsi que pour les plans Enterprise, Edu et Teachers, cette fonctionnalité permet de créer ou de sélectionner des agents depuis une bibliothèque de modèles préconfigurés, capables d'agir directement dans des outils tiers comme Slack, Google Drive, Salesforce, Notion, Microsoft 365, Atlassian Rovo et d'autres applications courantes en entreprise. Concrètement, un agent peut rédiger un email à toute une équipe, extraire des données pour générer une présentation, ou exécuter des tâches complexes en plusieurs étapes, sans que l'utilisateur à l'origine de la demande ait besoin de rester connecté. OpenAI précise que la fonctionnalité sera gratuite jusqu'au 6 mai 2026, date à laquelle une tarification basée sur des crédits entrera en vigueur. De nouvelles capacités sont annoncées : déclencheurs automatiques, tableaux de bord avancés, et intégration dans Codex, l'outil de génération de code de l'entreprise. L'enjeu principal n'est pas simplement d'avoir des assistants IA plus puissants, mais de transformer l'IA en ressource organisationnelle partagée plutôt qu'en outil de productivité individuelle. L'onglet « Agents » dans la barre latérale de ChatGPT fonctionne comme un annuaire d'équipe : les agents créés par des collègues sont accessibles et réutilisables par toute l'organisation. Ce modèle s'attaque directement à l'un des problèmes chroniques du travail en entreprise, la transmission entre personnes, systèmes et étapes d'un processus, en permettant à un agent de gérer cette complexité de bout en bout. Pour les directions informatiques et les responsables métiers, cela représente un nouveau paradigme de déploiement de l'IA : non plus des outils ponctuels, mais des workflows autonomes pilotés par des agents paramétrés selon des règles et des permissions définies par l'entreprise. La différence technique fondamentale avec les anciens « custom GPTs » réside dans l'architecture sous-jacente : ces agents sont propulsés par Codex, la plateforme cloud de développement assisté par IA qu'OpenAI a considérablement enrichie en 2026, notamment il y a six jours à peine avec l'ajout de plus de 90 plugins, de la mémoire persistante, de l'utilisation d'ordinateur en arrière-plan et de la capacité à planifier des tâches futures. Un agent Workspace n'est donc pas un simple modèle de langage qui répond à une invite : c'est une session Codex qui écrit du code, exécute des requêtes, produit des graphiques et retient ce qu'elle a appris pour la prochaine occurrence. Cette architecture d'exécution de code est ce qui distingue ces agents des solutions concurrentes reposant sur des boucles d'appels LLM classiques. À mesure qu'OpenAI annonce de nouveaux déclencheurs et une intégration plus profonde dans son écosystème, la concurrence avec Microsoft Copilot, Google Workspace AI et les plateformes d'agents comme Salesforce Agentforce s'intensifie sur le terrain stratégique des grandes entreprises.

UELes entreprises françaises et européennes abonnées à ChatGPT Business peuvent tester gratuitement ces agents intégrés à Slack, Notion, Microsoft 365 et Salesforce avant l'entrée en vigueur de la tarification le 6 mai 2026.

OutilsOutil
1 source
Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch
5AWS ML Blog 

Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch

NVIDIA a publié en août 2025 Parakeet-TDT-0.6B-v3, un modèle de transcription automatique de la parole open source couvrant 25 langues européennes, dont le français, l'allemand, l'espagnol, le polonais ou l'ukrainien. Capable de détecter automatiquement la langue parlée, ce modèle affiche un taux d'erreur sur les mots de 6,34 % en conditions acoustiques propres et de 11,66 % à 0 dB de rapport signal/bruit, tout en prenant en charge des fichiers audio allant jusqu'à trois heures. Distribué sous licence CC-BY-4.0, il s'appuie sur une architecture Token-and-Duration Transducer (TDT) qui prédit simultanément les tokens de texte et leur durée, permettant de sauter silences et segments redondants pour atteindre des vitesses d'inférence très largement supérieures au temps réel. Dans la configuration présentée, le modèle tourne sur AWS Batch avec des instances GPU G6 équipées de NVIDIA L4, qui offrent le meilleur ratio coût/performance, bien qu'il soit également compatible avec des instances G5, G4dn ou P5 pour un débit maximal. Le pipeline est entièrement événementiel : un fichier audio déposé sur Amazon S3 déclenche une règle Amazon EventBridge, qui soumet automatiquement un job à AWS Batch, lequel provisionne les ressources, télécharge l'image de conteneur depuis Amazon ECR et restitue une transcription JSON horodatée dans un bucket de sortie. Le coût final descend à quelques fractions de centime par heure d'audio. L'enjeu principal est économique. Pour les organisations traitant des volumes massifs d'audio, qu'il s'agisse d'archives médias, d'enregistrements de centres d'appels, de données d'entraînement pour l'IA ou de sous-titrage vidéo à la demande, les services ASR gérés facturent généralement à la durée réelle du fichier, ce qui fait exploser les coûts dès que les volumes augmentent. En ne payant que de brèves fenêtres de calcul GPU plutôt que la totalité de la durée audio, combiné à l'utilisation d'instances EC2 Spot moins onéreuses et au streaming par tampons, ce pipeline peut réduire la facture de transcription de façon substantielle par rapport aux APIs cloud classiques comme celles d'AWS Transcribe ou de Google Speech-to-Text. La prise en charge native de 25 langues sans configuration par langue supprime également une complexité opérationnelle significative pour les entreprises internationales. Cette approche s'inscrit dans une tendance plus large consistant à substituer des modèles open source performants aux services gérés pour les charges de travail à fort volume. NVIDIA, qui diffuse Parakeet dans le cadre de son écosystème NeMo, cherche à s'imposer comme référence en ASR face à OpenAI avec Whisper, à AssemblyAI ou encore à Amazon Transcribe. Le fait qu'un modèle de 600 millions de paramètres atteigne ces niveaux de précision multilingue ouvre la voie à des pipelines entièrement maîtrisés, hébergés en interne ou dans un cloud privé, sans dépendance à un fournisseur. La prochaine étape logique pour les équipes qui adoptent cette architecture sera d'enchaîner directement en aval des modules de post-traitement automatisés, résumé, analyse de sentiment ou détection d'entités, pour extraire encore plus de valeur des transcriptions produites.

UELe modèle Parakeet couvre nativement 25 langues européennes dont le français, offrant aux organisations françaises et européennes un pipeline de transcription audio économique et souverain, sans dépendance à un service ASR propriétaire.

OutilsTuto
1 source
Grok va bientôt personnaliser votre fil d'actualité sur X
6The Verge 

Grok va bientôt personnaliser votre fil d'actualité sur X

X a annoncé mercredi une nouvelle fonctionnalité permettant à Grok, son chatbot d'intelligence artificielle, de prendre en charge la curation du fil d'actualité des utilisateurs. Selon Nikita Bier, directeur produit de X, les abonnés Premium sur iOS bénéficient d'un accès anticipé à cette option : ils peuvent épingler des thématiques spécifiques dans leur onglet d'accueil, que Grok utilise ensuite pour sélectionner et ordonner les publications affichées dans chaque fil. L'accès anticipé pour les utilisateurs Android est prévu « très prochainement », selon Bier. Cette évolution représente un changement majeur dans la manière dont X gère la personnalisation de son interface. Jusqu'ici, l'algorithme de recommandation fonctionnait de manière opaque, sans que l'utilisateur puisse y injecter directement des préférences thématiques explicites. Avec Grok intégré à la boucle, la plateforme promet une personnalisation plus fine, en combinant la compréhension sémantique de chaque publication par l'IA avec les données comportementales de l'utilisateur. Le système serait encore plus efficace sur des sujets avec lesquels l'utilisateur interagit déjà régulièrement. Cette fonctionnalité s'inscrit dans la stratégie plus large d'Elon Musk d'intégrer Grok au coeur de l'expérience X, après des mois de déploiements progressifs incluant les résumés de fils de discussion, l'analyse d'images et le mode vocal. En faisant de l'IA le filtre central du fil d'actualité, X se positionne face à des concurrents comme TikTok ou YouTube, dont les algorithmes de recommandation ultra-personnalisés ont prouvé leur efficacité en matière d'engagement. La question de la transparence algorithmique et des biais potentiels introduits par Grok dans la sélection de l'information reste entière.

UELes questions de transparence algorithmique soulevées pourraient renforcer les obligations de X vis-à-vis du Digital Services Act (DSA) européen, qui impose aux très grandes plateformes de rendre compte de leurs systèmes de recommandation.

OutilsOutil
1 source
OpenAI permet désormais aux équipes de créer des bots personnalisés capables de travailler de façon autonome
7The Verge 

OpenAI permet désormais aux équipes de créer des bots personnalisés capables de travailler de façon autonome

OpenAI a annoncé le déploiement d'agents "workspace" directement intégrés à ChatGPT, désormais accessibles aux abonnés des formules Business, Enterprise, Edu et Teachers. Ces agents, hébergés dans le cloud, sont conçus pour exécuter des tâches professionnelles de manière autonome : l'un peut par exemple surveiller le web à la recherche de retours sur un produit et envoyer un rapport automatisé sur Slack, tandis qu'un autre est capable de rédiger des e-mails de suivi commercial directement dans Gmail. OpenAI a présenté ces capacités dans un billet de blog accompagné de plusieurs cas d'usage concrets. Pour les entreprises abonnées, ce lancement représente un changement de paradigme : il ne s'agit plus seulement d'un assistant qui répond à des questions, mais d'un système capable d'agir dans leurs outils du quotidien sans intervention humaine constante. L'intégration native à des services comme Slack et Gmail abaisse significativement la barrière d'adoption pour des équipes non techniques, et positionne ChatGPT comme une plateforme d'automatisation opérationnelle à part entière. Cette annonce s'inscrit dans une course effrénée au développement d'agents IA autonomes. Le phénomène a été amplifié par la viralité d'OpenClaw, un agent IA se présentant comme "l'IA qui fait vraiment les choses", fondé par Peter Steinberger, qui a depuis rejoint OpenAI. La tendance reflète une conviction grandissante dans l'industrie : la prochaine vague de valeur de l'IA ne viendra pas des chatbots, mais des systèmes capables d'agir de façon autonome dans des environnements de travail réels.

UELes entreprises françaises et européennes abonnées à ChatGPT Business ou Enterprise peuvent désormais déployer ces agents autonomes dans leurs outils quotidiens (Slack, Gmail) sans compétences techniques.

OutilsOutil
1 source
Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore
8AWS ML Blog 

Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore

Amazon a annoncé de nouvelles fonctionnalités pour Bedrock AgentCore, sa plateforme de développement d'agents IA, qui promettent de réduire drastiquement le temps nécessaire pour passer d'une idée à un agent fonctionnel. La pièce maîtresse de cette mise à jour est le "managed agent harness", une couche d'infrastructure gérée qui permet de déclarer et lancer un agent en trois appels d'API seulement, sans écrire de code d'orchestration. Le développeur n'a qu'à définir quel modèle utiliser, quels outils appeler et quelles instructions suivre : AgentCore assemble automatiquement le calcul, la mémoire, les identités et la sécurité. La plateforme est compatible avec les frameworks déjà en usage dans l'industrie : LangGraph, LlamaIndex, CrewAI et Strands Agents, le framework open source d'AWS qui propulse le harness. AgentCore gère également la persistance de l'état de session sur un système de fichiers durable, ce qui permet à un agent de suspendre une tâche en cours et de la reprendre exactement là où il s'était arrêté. Jusqu'ici, construire l'infrastructure sous-jacente d'un agent, compute, sandbox d'exécution de code, connexions sécurisées aux outils, stockage persistant, gestion des erreurs, représentait plusieurs jours de travail avant de pouvoir tester la moindre logique métier. Avec AgentCore, tester une variante d'agent, changer de modèle ou ajouter un outil devient une modification de configuration et non une réécriture de code. Rodrigo Moreira, VP Engineering chez VTEX, l'un des premiers utilisateurs, confirme que ce qui prenait auparavant des jours de mise en place peut désormais être validé en quelques minutes. Cette accélération du cycle de prototypage est particulièrement significative pour les équipes produit qui veulent itérer rapidement sur la logique agent sans s'embourber dans la plomberie backend. Les patterns "human-in-the-loop", souvent coûteux à implémenter, deviennent pratiques grâce à la persistance native de session, sans nécessiter de refonte architecturale ultérieure. La sortie de ces fonctionnalités s'inscrit dans une concurrence féroce entre les grands fournisseurs cloud pour capter les équipes qui industrialisent l'IA agentique. AWS fait le pari que les développeurs adoptent plus facilement un service géré s'il supprime la friction initiale tout en restant extensible : lorsque les besoins d'orchestration personnalisée ou de coordination multi-agents se précisent, il suffit de basculer d'une configuration déclarative vers du code, sur la même plateforme, avec la même pipeline de déploiement et le même isolement microVM. La prochaine étape annoncée, déployer et opérer les agents depuis le même terminal, vise à unifier le cycle complet de développement, de la première idée jusqu'à la production, dans un seul environnement sans rupture d'outil.

UELes équipes de développement françaises et européennes peuvent réduire leur temps de prototypage d'agents IA, accélérant l'industrialisation de l'IA agentique pour les entreprises du continent.

OutilsOutil
1 source
Equinox et JAX en pratique : modules natifs, transformations filtrées, couches à état et pipelines d'entraînement
9MarkTechPost 

Equinox et JAX en pratique : modules natifs, transformations filtrées, couches à état et pipelines d'entraînement

Equinox s'impose discrètement comme l'une des bibliothèques de deep learning les plus élégantes construites sur JAX, l'environnement de calcul numérique de Google. Développée comme une surcouche légère, elle repose sur un principe central : chaque modèle est un eqx.Module, traité nativement comme un PyTree, la structure d'arbre que JAX utilise pour manipuler ses tenseurs. Concrètement, cela signifie qu'une couche Linear, un bloc convolutif Conv1dBlock ou un réseau MLP se décomposent automatiquement en feuilles (les poids, les biais) et en métadonnées structurelles, sans couche d'abstraction cachée. Le tutoriel publié cette semaine détaille l'ensemble du workflow : initialisation des modules, champs statiques via eqx.field(static=True), transformations filtrées comme filterjit et filtergrad, couches avec état comme BatchNorm, et entraînement complet sur un problème de régression synthétique, le tout combiné avec Optax pour l'optimisation et Jaxtyping pour les annotations de forme. L'intérêt pratique d'Equinox réside dans la façon dont il résout une friction fondamentale de JAX : comment gérer des paramètres entraînables et des métadonnées non-différentiables dans le même objet. Avec les transformations filtrées, il devient possible d'appliquer jit ou grad uniquement sur les feuilles numériques du modèle, en excluant automatiquement les chaînes de caractères, entiers ou booléens qui définissent l'architecture. Cette distinction évite les erreurs de traçage silencieuses qui affectent les approches naïves. Pour les chercheurs qui travaillent sur des architectures expérimentales, où l'on mélange souvent des hyperparamètres fixes et des poids appris, c'est un gain de fiabilité et de lisibilité significatif. Les couches comme BatchNorm, qui maintiennent un état interne (moyenne courante, variance), sont également prises en charge de manière explicite, sans recourir à des contournements complexes. Equinox s'inscrit dans un mouvement plus large qui voit JAX gagner du terrain dans la recherche en apprentissage automatique, notamment face à PyTorch. Google DeepMind, qui l'utilise intensivement, ainsi que de nombreux laboratoires académiques ont adopté cet écosystème pour sa capacité à composer des transformations fonctionnelles (différentiation, vectorisation, parallélisme) de façon modulaire. Equinox se positionne comme une alternative à Flax ou Haiku, les deux bibliothèques historiques de l'écosystème JAX, en privilegiant une syntaxe plus proche de PyTorch tout en restant purement fonctionnelle. Avec l'essor des modèles de grande taille et les besoins croissants en parallélisme matériel, des outils qui séparent clairement la structure du modèle de son état numérique devraient continuer à gagner en adoption dans les mois à venir.

OutilsTuto
1 source
OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail
10The Decoder 

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail

OpenAI déploie une nouvelle fonctionnalité dans ChatGPT baptisée "workspace agents", qui représente une évolution majeure des GPTs personnalisés lancés en 2023. Ces agents, propulsés par Codex, le moteur de programmation d'OpenAI, sont conçus pour automatiser des flux de travail complexes au sein des équipes professionnelles. Contrairement aux interactions classiques avec un chatbot, ces agents peuvent s'exécuter en arrière-plan, sans surveillance humaine active, et enchaîner des tâches sur la durée. L'enjeu est considérable pour les entreprises : il ne s'agit plus de demander une réponse ponctuelle à un assistant IA, mais de déléguer des processus entiers, comme la gestion de rapports, la coordination entre outils ou le traitement de données récurrentes. Ce basculement transforme ChatGPT d'un simple outil conversationnel en véritable plateforme d'automatisation d'équipe, positionnant OpenAI en concurrence directe avec des solutions comme Microsoft Copilot, Notion AI ou encore les agents proposés par Google Workspace. Cette annonce s'inscrit dans une course effrénée à l'agentique, où les grands acteurs de l'IA cherchent à s'ancrer durablement dans les outils de productivité professionnelle. OpenAI a précisé que les GPTs personnalisés existants resteraient disponibles dans l'immédiat, une transition progressive devant être proposée ultérieurement. Le choix de Codex comme moteur sous-jacent suggère une orientation forte vers les tâches techniques et développeur, même si les usages visés dépassent largement ce seul périmètre.

UEL'adoption des workspace agents ChatGPT par les entreprises européennes soulève des enjeux de conformité RGPD, les processus métier et données sensibles étant délégués à une plateforme américaine.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
11VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

💬 C'est exactement le verrou qui bloquait l'adoption en entreprise depuis deux ans. Un modèle léger, déployable en local, qui filtre les données personnelles avant d'envoyer vers le cloud : sur le papier, c'est le genre de brique qu'on attendait. Et distribuer ça sous Apache 2.0, c'est malin : si ton pipeline s'appuie sur leurs outils gratuits, tu vas finir par appeler leurs modèles payants derrière.

OutilsOutil
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
12Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
Google Meet va aussi prendre des notes IA pour les réunions en présentiel
13The Verge 

Google Meet va aussi prendre des notes IA pour les réunions en présentiel

Google étend les capacités de son assistant IA Gemini aux réunions en présentiel : la fonction de prise de notes automatique, jusqu'ici réservée aux appels Google Meet, peut désormais générer des résumés et des transcriptions lors de réunions physiques, mais aussi lors de visioconférences Zoom et Microsoft Teams. Cette évolution, révélée par 9to5Google, marque une sortie de la phase alpha où la fonctionnalité était uniquement disponible sur Android pour un groupe restreint d'utilisateurs. Elle est désormais accessible plus largement, sans contrainte de salle de réunion ni de rendez-vous planifié à l'avance. L'impact est significatif pour les professionnels qui alternent entre réunions virtuelles et physiques : Gemini devient un assistant de réunion universel, indépendant du support utilisé. La possibilité de capturer automatiquement les échanges lors d'une discussion informelle dans un couloir ou d'une réunion de dernière minute représente un gain de temps concret. Google précise également qu'un participant distant peut rejoindre une réunion en présentiel en basculant vers un appel vidéo classique. Cette annonce s'inscrit dans une course entre les grands acteurs technologiques pour intégrer l'IA dans les flux de travail quotidiens. Microsoft propose des fonctions similaires via Copilot dans Teams, et plusieurs startups comme Otter.ai ou Fireflies.ai ont bâti leur modèle entier sur la transcription de réunions. En élargissant Gemini au-delà de son propre écosystème, Google adopte une stratégie d'ubiquité visant à fidéliser les utilisateurs professionnels quel que soit leur environnement de collaboration.

UELes professionnels européens utilisant Google Workspace peuvent désormais bénéficier de la prise de notes automatique Gemini dans leurs réunions physiques et sur Zoom ou Teams, sans dépendre d'un outil tiers.

OutilsOutil
1 source
JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel
14MarkTechPost 

JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel

La communauté open source openJiuwen a publié une nouvelle version de JiuwenClaw intégrant une fonctionnalité appelée AgentTeam, qui introduit un concept inédit baptisé "Coordination Engineering". L'idée : faire travailler plusieurs agents d'intelligence artificielle ensemble comme une équipe humaine soudée, capable de se répartir les tâches, de communiquer entre eux et de livrer un résultat complexe sans aucune intervention humaine. La démonstration la plus frappante de cette capacité a été réalisée lors de tests internes : le système a produit une présentation technique de 200 diapositives, structurée et logiquement cohérente, en moins de 20 minutes. Pour ce faire, un agent "Leader" a décomposé le sujet en dix axes d'analyse, confié chaque axe à un agent dédié chargé de générer 20 slides, puis fusionné l'ensemble sous une thématique unifiée. Ce type de collaboration multi-agents représente un franchissement de cap significatif dans la conception des systèmes d'IA autonomes. Jusqu'ici, la plupart des architectures d'agents reposaient sur un pilotage humain constant ou sur des pipelines rigides et préprogrammés. Avec AgentTeam, la coordination devient dynamique : le Leader construit l'équipe selon les besoins du projet, peut ajouter ou retirer des membres en cours d'exécution, et chaque agent revendique ses tâches de manière proactive sur un tableau de bord partagé. Les dépendances entre tâches sont gérées automatiquement, et un mécanisme de récupération sur incident prend en charge les pannes sans intervention extérieure. Pour les entreprises cherchant à automatiser des processus de production de contenu, d'analyse ou de développement logiciel, ce niveau d'autonomie organisationnelle pourrait réduire considérablement le besoin de supervision humaine. Ce développement s'inscrit dans une tendance plus large de l'industrie de l'IA vers les systèmes multi-agents, où des acteurs comme OpenAI, Anthropic ou des projets open source concurrents explorent des architectures permettant à plusieurs LLMs de collaborer. JiuwenClaw se distingue en formalisant trois mécanismes techniques précis : une hiérarchie Leader/Teammates avec planification dynamique, un espace de fichiers partagé accessible à tous les agents de l'équipe, et un système de validation à deux niveaux où le Leader doit approuver les plans d'exécution sensibles avant leur mise en oeuvre. Le projet est disponible en open source sur GitHub. La prochaine étape pour l'écosystème sera de déterminer si cette approche tient à plus grande échelle, avec des équipes d'agents plus nombreuses, des tâches plus longues, et des environnements moins contrôlés que les démonstrations actuelles.

OutilsOutil
1 source
Amazon Bedrock intègre la mémoire d'entreprise avec Amazon Neptune et Mem0
15AWS ML Blog 

Amazon Bedrock intègre la mémoire d'entreprise avec Amazon Neptune et Mem0

TrendMicro, l'un des plus grands éditeurs mondiaux de logiciels antivirus, a déployé une architecture de mémoire persistante pour son chatbot d'entreprise Trend's Companion, en collaboration avec les équipes AWS et son Generative AI Innovation Center. Le système repose sur trois piliers technologiques : Amazon Bedrock pour l'orchestration des agents IA, Amazon Neptune pour stocker un graphe de connaissances propre à chaque entreprise cliente, et Mem0 pour gérer à la fois la mémoire conversationnelle à court terme et la mémoire persistante à long terme. Concrètement, lorsqu'un utilisateur envoie un message, le modèle Claude sur Amazon Bedrock extrait automatiquement les entités, relations et éléments mémorisables, qui sont ensuite vectorisés via Amazon Bedrock Titan Text Embed et indexés dans Amazon OpenSearch Service et Neptune. Un mécanisme de réordonnancement via Amazon Bedrock Rerank ou Cohere Rerank garantit que les informations les plus pertinentes remontent en priorité lors de chaque requête. L'enjeu est de taille pour les chatbots d'entreprise : jusqu'ici, ces systèmes perdaient le fil dès qu'une conversation se terminait, obligeant les utilisateurs à se répéter et rendant impossible toute capitalisation sur les échanges passés. Avec cette architecture, le chatbot peut désormais référencer l'historique des interactions, retrouver des connaissances organisationnelles structurées et adapter ses réponses au contexte spécifique d'une entreprise cliente, sans que l'utilisateur ait besoin de tout réexpliquer. Un mécanisme de validation humaine renforce encore la fiabilité du système : après chaque réponse, l'IA associe ses affirmations aux souvenirs précis sur lesquels elle s'est appuyée, et l'utilisateur peut approuver ou rejeter ces associations. Les mémoires validées restent dans la base de connaissances ; les autres sont supprimées d'OpenSearch et de Neptune. Ce "human-in-the-loop" donne aux entreprises un contrôle direct sur la qualité et la fiabilité du savoir accumulé par leur chatbot. Cette initiative s'inscrit dans une tendance de fond qui voit les grands éditeurs tech chercher à transformer leurs assistants IA de simples répondeurs en véritables agents dotés de mémoire organisationnelle. TrendMicro fait face à une clientèle d'entreprises qui attendent des outils capables de comprendre leur environnement propre, leurs processus internes et leur historique de support, sans compromettre la sécurité des données. Le choix d'Amazon Neptune comme socle du graphe de connaissances est particulièrement significatif : contrairement à une base vectorielle classique, un graphe permet de modéliser des relations complexes entre entités, offrant une précision structurée que la recherche sémantique seule ne peut pas atteindre. A mesure que les agents IA autonomes se généralisent dans les entreprises, ce type d'architecture hybride, combinant graphe de connaissances, mémoire vectorielle et validation humaine, pourrait s'imposer comme un standard pour tout déploiement IA à l'échelle organisationnelle.

OutilsOutil
1 source
Agentforce Vibes 2.0 de Salesforce s'attaque à un problème méconnu : la surcharge de contexte dans les agents IA
16VentureBeat AI 

Agentforce Vibes 2.0 de Salesforce s'attaque à un problème méconnu : la surcharge de contexte dans les agents IA

La plateforme australienne de financement de startups VentureCrowd a réduit de 90 % la durée de certains cycles de développement front-end grâce à des agents IA de codage, mais cette performance a eu un prix. Diego Mogollon, directeur produit de l'entreprise, a constaté que les agents raisonnaient exclusivement à partir des données accessibles au moment de l'exécution, ce qui les rendait «confiants et faux» dès que le contexte fourni était incomplet ou mal structuré. Le problème identifié porte un nom : le «context bloat», ou gonflement de contexte, un phénomène où les agents IA accumulent progressivement trop de données, d'instructions et d'outils au fil de workflows de plus en plus complexes. Pour y répondre, Salesforce vient de publier Agentforce Vibes 2.0, une mise à jour de sa plateforme de développement d'agents intégrée à l'écosystème Salesforce, disponible dès le plan gratuit. Cette version étend la compatibilité avec des frameworks tiers comme ReAct et introduit deux nouveaux concepts : les Abilities, qui définissent ce que l'agent cherche à accomplir, et les Skills, qui désignent les outils qu'il utilisera pour y parvenir. Le problème du gonflement de contexte est plus structurel qu'il n'y paraît. Plus un agent dispose de contexte, plus il consomme de tokens, ce qui ralentit les traitements et fait grimper les coûts. Pour les entreprises qui déploient ces systèmes à grande échelle, cela se traduit par une perte de contrôle sur la latence, la fiabilité et les budgets. Mogollon résume le paradoxe central : «Ce n'est pas un problème d'IA, c'est un problème de contexte déguisé en problème d'IA, et c'est le premier mode d'échec que j'observe dans les implémentations agentiques.» VentureCrowd a d'ailleurs dû restructurer l'ensemble de sa base de code avant même de pouvoir déployer des agents efficaces, les agents amplifiant les défauts des données qu'ils reçoivent. L'approche de Salesforce avec Agentforce Vibes 2.0 se distingue par son intégration native aux modèles de données existants des entreprises, plutôt que de chercher à minimiser le contexte. D'autres plateformes adoptent une philosophie différente : Claude Code et Codex d'OpenAI privilégient une exécution autonome, où les agents lisent des fichiers et exécutent des commandes en continu, avec des mécanismes de compaction activés lorsque le contexte devient trop volumineux. La tendance générale est à la gestion du contexte croissant plutôt qu'à sa limitation, ce qui soulève des questions de fond pour l'ensemble du secteur. Avec la multiplication des workflows agentiques complexes en entreprise, la maîtrise du contexte s'impose comme un enjeu technique et économique de premier plan, et les éditeurs qui proposeront les architectures les plus efficientes sur ce point prendront un avantage concurrentiel décisif.

OutilsOutil
1 source
Alibaba lance l'avatar "Qwen XiaoJiuWo" pour unifier son écosystème d'assistants IA
17Pandaily 

Alibaba lance l'avatar "Qwen XiaoJiuWo" pour unifier son écosystème d'assistants IA

Alibaba a officiellement lancé le 22 avril 2026 "Qwen XiaoJiuWo", un avatar numérique destiné à incarner l'interface unifiée de tout son écosystème d'intelligence artificielle Qwen. Ce personnage virtuel sera intégré à l'application Qwen avant d'être progressivement déployé sur les grandes plateformes du groupe : Taobao, Fliggy, Amap et Alipay. Selon les données du registre commercial, Alibaba (China) Co., Ltd. a déposé plusieurs marques liées à "Qwen XiaoJiuWo" dès le 10 mars 2026, couvrant des domaines aussi variés que l'IA en tant que service (AIaaS), les logiciels de chatbot et la robotique humanoïde. Ces dépôts sont encore en cours d'examen. L'application Qwen comptait en mars 2026 quelque 166 millions d'utilisateurs actifs mensuels, selon QuestMobile, ce qui la place en deuxième position parmi les applications natives d'IA en Chine. Sur le seul premier trimestre 2026, la base d'utilisateurs a progressé d'environ 126 millions. Ce lancement ne constitue pas un nouveau produit à proprement parler, mais une stratégie de cohérence de marque dans un marché extrêmement concurrentiel. En dotant son assistant d'une identité visuelle forte et reconnaissable, Alibaba cherche à fidéliser ses utilisateurs et à créer un sentiment de continuité entre des plateformes très différentes. La fréquence d'utilisation mensuelle reste cependant un point de vigilance : avec 19,8 sessions par utilisateur en moyenne, Qwen se situe en dessous de plusieurs concurrents directs, ce qui suggère que l'engagement reste à consolider malgré la croissance spectaculaire du nombre d'inscrits. Ce mouvement s'inscrit dans une compétition acharnée entre les géants technologiques chinois pour dominer le marché de l'IA grand public. Baidu avec Ernie Bot, ByteDance et ses propres modèles, ainsi que des acteurs plus récents comme DeepSeek exercent une pression croissante sur Alibaba. Le dépôt de marques incluant la robotique humanoïde laisse entrevoir des ambitions bien au-delà du simple chatbot. Alibaba semble vouloir faire de Qwen XiaoJiuWo un point d'entrée transversal vers l'ensemble de ses services numériques, pariant sur l'unification de l'expérience utilisateur comme levier de différenciation à long terme.

OutilsOpinion
1 source
OpenClaw peine à confirmer après son succès fulgurant
18The Information AI 

OpenClaw peine à confirmer après son succès fulgurant

OpenClaw, un logiciel d'agents IA devenu en quelques mois l'un des projets open source à la croissance la plus rapide de l'histoire de la tech, se retrouve à un carrefour délicat. Porté par une communauté de volontaires, ce projet a explosé du jour au lendemain sans que ses mainteneurs n'aient eu le temps d'anticiper une telle adoption. Aujourd'hui, ses responsables doivent décider s'ils transforment OpenClaw en outil fiable pour les entreprises, ou s'ils préservent l'ADN expérimental qui a fait son succès. La question n'est pas anodine : les entreprises qui intègrent des agents IA dans leurs processus métier ont besoin de stabilité, de documentation, de support et de garanties de pérennité que des équipes bénévoles peinent structurellement à offrir. Si OpenClaw ne franchit pas ce cap, il risque de rester un outil de laboratoire réservé aux développeurs avertis, laissant le terrain aux solutions commerciales concurrentes capables d'absorber les exigences des grands comptes. Le phénomène OpenClaw illustre une tension bien connue dans l'open source : les projets qui percent brutalement se retrouvent écrasés par leur propre succès, sans les ressources pour absorber la charge. Dans un secteur des agents IA en pleine ébullition, où des dizaines de frameworks se disputent l'adhésion des développeurs, la fenêtre pour s'imposer comme standard de référence est courte. Les mainteneurs devront probablement choisir entre chercher des financements externes, créer une fondation ou une entité commerciale, ou risquer que la communauté se fragmente autour de forks mieux gouvernés.

OutilsOutil
1 source
Photon lance Spectrum, framework TypeScript open source pour déployer des agents IA sur iMessage, WhatsApp et Telegram
19MarkTechPost 

Photon lance Spectrum, framework TypeScript open source pour déployer des agents IA sur iMessage, WhatsApp et Telegram

Photon, une société d'infrastructure spécialisée dans l'exécution d'agents IA à faible latence, a lancé Spectrum, un SDK open-source en TypeScript et une plateforme cloud qui permettent de déployer des agents IA directement sur iMessage, WhatsApp, Telegram, Slack, Discord, Instagram et d'autres messageries grand public. Disponible sous licence MIT via npm install spectrum-ts, le framework offre une interface de programmation unifiée : les développeurs écrivent la logique de leur agent une seule fois, et Spectrum gère la livraison sur chaque plateforme. Pour étendre un agent d'iMessage à WhatsApp, il suffit d'ajouter une entrée dans le tableau providers. L'infrastructure repose sur un réseau edge-first qui affiche une latence de bout en bout mesurée entre 150 et 250 millisecondes, contre 500 ms à 1,5 seconde pour la moyenne du secteur CPaaS, avec un engagement de disponibilité de 99,9 %. Le SDK inclut un rendu adaptatif qui ajuste automatiquement la mise en forme aux contraintes natives de chaque plateforme, permettant par exemple d'envoyer un sondage structuré dans l'application Messages d'Apple sans tomber sur un rendu en texte brut. Ce lancement s'attaque à l'un des problèmes les plus persistants du secteur : la distribution des agents IA. Malgré des capacités de raisonnement remarquables, la grande majorité des agents restent cantonnés à des interfaces développeurs ou des applications spécialisées que le grand public n'installe jamais. En permettant de déployer un agent directement dans les messageries que des milliards de personnes utilisent quotidiennement, Spectrum supprime la friction d'adoption qui freine concrètement l'usage. Pour les équipes produit, cela signifie qu'un assistant IA peut apparaître dans la liste de contacts d'un utilisateur comme n'importe quel autre interlocuteur, sans téléchargement ni inscription. La précision des types pour les messages entrants et sortants réduit également une catégorie entière d'erreurs de production fréquentes dans les déploiements d'agents. Le problème de distribution que Spectrum cherche à résoudre est structurel : l'essor des LLM a largement devancé les mécanismes pour les rendre accessibles au-delà des communautés techniques. Les CPaaS existants comme Twilio ont historiquement ciblé la messagerie transactionnelle, pas les workloads conversationnels à haute fréquence des agents IA. Photon se positionne donc sur un segment encore peu occupé, à l'intersection de l'infrastructure de messagerie et de l'orchestration d'agents. Le SDK expose également une API definePlatform pour créer des connecteurs vers des plateformes non standard, ce qui élargit le périmètre potentiel bien au-delà des intégrations actuelles. Le support de Python, Go, Rust et Swift est annoncé dans la feuille de route, ce qui laisse anticiper une adoption rapide au-delà de l'écosystème TypeScript. La vraie question reste de savoir si la promesse de latence et de fiabilité tient à l'échelle, une fois que des équipes de production commenceront à s'y appuyer sérieusement.

UELe SDK facilite le déploiement d'agents IA sur WhatsApp et Telegram, très utilisés en France et dans l'UE, ce qui pourrait réduire la friction d'adoption pour les développeurs européens souhaitant toucher le grand public.

OutilsOutil
1 source
Le rôle de l'IA dans le développement des bots de trading forex
20AI News 

Le rôle de l'IA dans le développement des bots de trading forex

L'intelligence artificielle transforme en profondeur le développement des robots de trading sur le marché des changes (forex), un secteur qui brasse quotidiennement plus de 7 500 milliards de dollars d'échanges à travers le monde. Là où les premiers robots forex reposaient sur des règles statiques, entrer en position lorsqu'une moyenne mobile franchit un seuil précis, sortir lorsqu'un prix cible est atteint, les systèmes modernes intègrent désormais des techniques d'apprentissage automatique, de traitement du langage naturel (NLP), d'apprentissage profond et de renforcement par essais-erreurs. Ces architectures permettent aux algorithmes de s'entraîner sur des historiques de données, d'identifier des corrélations complexes entre indicateurs techniques et variables macroéconomiques, puis d'ajuster leurs stratégies en continu à mesure que de nouvelles données arrivent. Le NLP joue un rôle particulier : il permet aux systèmes de scanner en temps réel les annonces des banques centrales, les rapports économiques et les flux d'actualités financières pour détecter des changements de sentiment susceptibles de faire bouger les paires de devises. L'impact le plus concret de cette évolution concerne la gestion du risque. Les marchés des changes sont réputés pour leur volatilité et leur fonctionnement 24 heures sur 24, cinq jours par semaine, ce qui rend la surveillance manuelle exhaustive pratiquement impossible même pour les traders les plus expérimentés. Les systèmes pilotés par IA peuvent surveiller simultanément des dizaines de signaux, mouvements de prix, niveaux de volatilité, évolutions de liquidité, corrélations entre paires de devises, et identifier des signaux d'alerte bien plus tôt que les méthodes traditionnelles. Cette capacité à traiter des volumes massifs d'informations hétérogènes en temps réel représente un avantage décisif : elle réduit l'exposition aux pertes soudaines tout en permettant de saisir des opportunités fugaces que l'analyse humaine ne pourrait pas détecter à cette vitesse. Cette mutation s'inscrit dans une transformation plus large de la finance algorithmique. Pendant des décennies, les robots de trading ont été l'apanage des grandes institutions, banques d'investissement, fonds spéculatifs, qui disposaient des ressources pour développer et maintenir des systèmes sophistiqués. La démocratisation des frameworks d'apprentissage automatique open source et la réduction des coûts de calcul cloud ont progressivement ouvert ce terrain aux traders indépendants et aux petites sociétés de gestion. Les modèles peuvent désormais être réentraînés régulièrement pour intégrer les nouvelles dynamiques de marché, ce qui réduit l'obsolescence rapide qui frappait les anciens robots à règles fixes. La question qui se pose pour les acteurs du secteur n'est plus de savoir si l'IA doit intégrer leurs systèmes de trading, mais à quelle vitesse et avec quels garde-fous humains maintenir dans la boucle de décision.

UELes gérants de fonds et traders indépendants européens sont concernés par la démocratisation de ces outils algorithmiques, mais l'article n'aborde aucune spécificité réglementaire ou institutionnelle propre à l'UE.

OutilsOutil
1 source
Créez vos clips de recettes IA sans passer des heures au montage : le guide de survie des créateurs culinaires - avril 2026
21Le Big Data 

Créez vos clips de recettes IA sans passer des heures au montage : le guide de survie des créateurs culinaires - avril 2026

En avril 2026, la plateforme de montage automatisé Submagic a publié un guide pratique destiné aux créateurs de contenu culinaire, présentant son outil AI Clip Maker comme une solution clé pour produire des vidéos de recettes adaptées aux réseaux sociaux sans intervention manuelle prolongée. L'outil analyse les rushs bruts pour en extraire automatiquement les séquences à fort impact : bruits caractéristiques comme le croustillant d'un pain ou le crépitement d'une poêle, moments de découpe, dressage final. Il intègre également un recadrage intelligent en format 9:16 qui suit les déplacements du sujet à l'écran, ainsi qu'un sous-titrage automatique qui transcrit les paroles en éléments graphiques superposés à l'image, ingrédients, quantités, temps de cuisson, pour une lecture possible sans le son. L'enjeu est directement économique pour des milliers de créateurs indépendants actifs sur Instagram Reels, TikTok ou YouTube Shorts. Le montage d'une vidéo culinaire professionnelle représente traditionnellement plusieurs heures de travail par production : dérushage, découpe, recadrage, sous-titrage, rythme. En automatisant ces étapes, des outils comme Submagic permettent de multiplier le volume de publications sans augmenter proportionnellement le temps de travail, ce qui constitue un avantage concurrentiel direct dans un espace saturé où la fréquence de publication influence fortement les algorithmes de recommandation. La consommation silencieuse des vidéos, majoritaire dans les transports et lieux publics, renforce par ailleurs l'utilité des sous-titres automatiques, devenus un standard de facto du format. Ce type d'outils s'inscrit dans un mouvement plus large d'industrialisation de la création de contenu, porté par la démocratisation des modèles de vision par ordinateur capables d'analyser simultanément pistes audio et vidéo. Depuis 2024, plusieurs acteurs comme Descript, Captions ou CapCut ont intégré des fonctions similaires d'auto-montage et de recadrage, transformant progressivement le métier de créateur en exercice de supervision plutôt que d'exécution technique. La niche culinaire est particulièrement visée car elle combine des contraintes techniques fortes, format vertical, plans serrés sur textures, narration fragmentée, avec une audience massive et monétisable. La question qui se pose désormais pour l'industrie est celle de la différenciation : quand tous les créateurs utilisent les mêmes algorithmes de montage, c'est la qualité du tournage brut et la personnalité éditoriale qui redeviennent les seuls facteurs distinctifs.

OutilsOutil
1 source
OpenAI prépare Hermes pour ChatGPT : Le « tueur d’emplois » ultime ?
22Le Big Data 

OpenAI prépare Hermes pour ChatGPT : Le « tueur d’emplois » ultime ?

OpenAI travaille en secret sur une fonctionnalité majeure pour ChatGPT, baptisée en interne "Hermes". Les premières informations proviennent de captures d'écran issues de tests internes, diffusées le 21 avril 2026 par Tibor Blaho, un leaker reconnu pour la fiabilité de ses révélations sur OpenAI. D'après ces images, Hermes serait une plateforme complète dédiée aux agents IA, intégrant un outil de création appelé "Studio", des modèles de workflows prêts à l'emploi, ainsi qu'un système de planification. Les agents pourraient fonctionner 24h/24 et 7j/7, être déployés dans des services tiers comme Slack, et se voir attribuer des compétences, fichiers, instructions et mémoire persistante. Un utilisateur pourrait, par exemple, confier à un agent la gestion des messages Slack entrants pendant la nuit ou la génération automatique d'un rapport hebdomadaire chaque lundi matin. L'enjeu est considérable pour le marché du travail et l'industrie technologique. Si Hermes tient ses promesses, combiné à Codex, l'outil de génération de code d'OpenAI, il pourrait automatiser une part significative des tâches administratives et répétitives au sein des entreprises. Les postes concernés ne disparaîtraient pas nécessairement du jour au lendemain, mais pourraient se réduire progressivement à des fonctions de supervision, selon les observateurs du secteur. Pour les entreprises, cela représenterait un levier de productivité important. Pour les travailleurs du tertiaire, c'est une pression supplémentaire sur des métiers déjà fragilisés par l'automatisation croissante des processus. Hermes s'inscrit dans une stratégie plus large d'OpenAI visant à transformer ChatGPT en une véritable plateforme d'agents, en capitalisant sur les GPT personnalisés et le générateur de workflows déjà présents. Aucun calendrier officiel ni détail technique n'ont été communiqués par l'entreprise, qui reste délibérément discrète. Selon certains observateurs, ce silence serait lié à des contraintes d'infrastructure : OpenAI voudrait s'assurer de disposer d'une capacité de calcul suffisante avant d'annoncer un lancement et de déclencher une explosion de la demande. En parallèle, d'autres fonctionnalités seraient en développement, dont une personnalisation des images à partir d'une photo de référence dans ImageGen, un "Concours Images 2.0" et un mode "Résumé audio" offrant plusieurs formats allant du podcast radio au briefing exécutif. OpenAI se retrouve en compétition directe avec Google, Microsoft et des acteurs émergents comme Cohere sur le segment des agents d'entreprise, un marché que tous considèrent comme le prochain terrain décisif de l'IA générative.

UESi Hermes est lancé, les travailleurs européens du tertiaire seraient exposés à une automatisation accrue de leurs tâches administratives et répétitives via ChatGPT.

OutilsOutil
1 source
Tencent lance une bêta internationale de sa plateforme d'agents IA QClaw
23Pandaily 

Tencent lance une bêta internationale de sa plateforme d'agents IA QClaw

Tencent Cloud a lancé le 21 avril 2026 la version bêta internationale de QClaw, sa plateforme d'agents IA destinée au grand public. Développé par l'équipe Tencent PC Manager et construit sur le framework open-source OpenClaw, le produit avait d'abord été lancé sur le marché chinois en mars 2026. La version internationale intègre plus de 80 mises à jour fonctionnelles et a été développée en à peine cinq jours, la majorité du code ayant été générée par intelligence artificielle. QClaw est actuellement disponible en accès anticipé aux États-Unis, au Canada, à Singapour et en Corée du Sud, avec une prise en charge multilingue. Durant cette phase bêta, les utilisateurs reçoivent une allocation quotidienne de tokens et l'accès anticipé reste limité en nombre de places. La proposition centrale de QClaw est de rendre les agents IA accessibles sans installation ni compétences techniques particulières. La plateforme propose un "Agent Playground" rassemblant des rôles variés comme des coachs fitness ou des tuteurs en langues, et s'intègre avec les principaux modèles du marché, notamment GPT et Claude. Un mécanisme de sécurité intégré surveille et valide les actions exécutées par les agents, répondant directement aux inquiétudes croissantes autour de l'autonomie des IA. Ce positionnement "plug-and-play" cible un segment de marché encore peu saturé : les utilisateurs non-développeurs qui souhaitent bénéficier de l'automatisation sans friction technique. Cette sortie internationale s'inscrit dans la stratégie d'expansion mondiale accélérée des géants technologiques chinois, qui cherchent à exporter leurs outils IA à mesure que le marché intérieur arrive à maturité. Tencent rejoint ainsi Alibaba, ByteDance et d'autres acteurs dans la course à l'adoption internationale de leurs plateformes IA. La vitesse de développement revendiquée, cinq jours pour une mise à jour majeure, illustre comment les entreprises utilisent désormais l'IA pour accélérer leur propre cycle de production logicielle. La compatibilité avec des modèles concurrents comme Claude signale une approche ouverte visant à maximiser l'adoption, plutôt qu'un écosystème fermé. Les prochains mois diront si QClaw peut s'imposer face à des concurrents comme Manus ou les offres d'agents d'OpenAI sur ces marchés anglophones.

OutilsOutil
1 source
OpenAI publie en open source Euphony, un outil de visualisation web pour les données Harmony Chat et les sessions Codex
24MarkTechPost 

OpenAI publie en open source Euphony, un outil de visualisation web pour les données Harmony Chat et les sessions Codex

OpenAI a publié en open source Euphony, un outil de visualisation fonctionnant directement dans le navigateur, conçu pour transformer des données de conversation structurées en vues interactives lisibles. L'outil prend en charge deux formats propriétaires d'OpenAI : les conversations au format Harmony et les fichiers de session Codex au format JSONL. Euphony peut ingérer ces données de trois manières : en collant du JSON directement depuis le presse-papiers, en chargeant un fichier local, ou en pointant vers une URL publique, y compris des datasets hébergés sur Hugging Face. Une fois les données chargées, l'outil détecte automatiquement le format et rend une timeline de conversation navigable, avec un panneau d'inspection des métadonnées, un mode grille pour parcourir rapidement de grands datasets, un mode édition pour modifier le contenu JSONL dans le navigateur, et un filtrage basé sur JMESPath pour interroger les structures JSON complexes. Ce problème est concret pour quiconque travaille avec des agents IA multi-étapes : un agent Codex qui lit des fichiers, appelle des API, génère du code et révise ses propres sorties peut produire des centaines de lignes de JSON brut, où tokens bruts, chaînes décodées et métadonnées structurées s'entremêlent. Sans outillage dédié, retracer ce que le modèle faisait à chaque étape revient à reconstituer un puzzle sans image de référence. Euphony répond directement à ce besoin en rendant exploitable une richesse de données qui jusqu'ici restait enfouie dans des fichiers difficilement lisibles à l'œil nu. Pour les équipes d'évaluation et de fine-tuning, la possibilité d'inspecter des champs de métadonnées par conversation, scores, sources, labels, directement dans l'interface représente un gain de productivité significatif. Le contexte technique éclaire pourquoi cet outil était nécessaire. Le format Harmony, utilisé pour entraîner la série de modèles open-weight gpt-oss d'OpenAI, est structurellement plus riche qu'un format de chat standard : il supporte des sorties multi-canaux (raisonnement, appels d'outils, réponses normales dans une même conversation), des hiérarchies d'instructions basées sur les rôles (system, developer, user, assistant) et des namespaces d'outils nommés. Cette richesse est précieuse pour l'entraînement et l'évaluation, mais elle rend l'inspection manuelle particulièrement pénible. Euphony est disponible en deux modes : un mode purement frontend sans dépendance serveur, activé via la variable d'environnement VITEEUPHONYFRONTEND_ONLY=true, et un mode assisté par un serveur FastAPI local qui gère le chargement de datasets volumineux et le rendu Harmony côté backend. L'outil est également conçu pour être intégré comme composant web dans d'autres applications, ce qui ouvre la voie à une adoption dans des pipelines d'évaluation ou des interfaces internes d'équipes IA.

OutilsOutil
1 source
Hugging Face lance ml-intern, un agent IA open source qui automatise l'après-entraînement des LLM
25MarkTechPost 

Hugging Face lance ml-intern, un agent IA open source qui automatise l'après-entraînement des LLM

Hugging Face a publié ml-intern, un agent d'intelligence artificielle open-source conçu pour automatiser de bout en bout le post-entraînement des grands modèles de langage (LLM). Construit sur le framework smolagents de la société, l'outil est capable de réaliser de manière autonome des revues de littérature scientifique sur arXiv, de découvrir des jeux de données sur le Hub Hugging Face, d'exécuter des scripts d'entraînement et d'évaluer itérativement les résultats, le tout sans intervention humaine. Lors d'une démonstration officielle, l'agent a pris le modèle de base Qwen3-1.7B, qui obtenait initialement environ 10 % sur le benchmark GPQA de raisonnement scientifique, et l'a porté à 32 % en moins de 10 heures sur un seul GPU H100, franchissant la barre des 27,5 % en seulement trois heures. Ce résultat dépasse celui de Claude Code d'Anthropic, actuellement à 22,99 % sur cette même tâche, et se rapproche du record actuel de 33 % obtenu avec le modèle Gemma-3-4B, deux fois plus grand. L'impact de ml-intern est direct pour les équipes de recherche en machine learning : il automatise un cycle de travail qui mobilise habituellement plusieurs ingénieurs pendant plusieurs jours. L'agent gère la génération de données synthétiques lorsque les jeux de données existants sont insuffisants, comme dans un test médical où il a produit des exemples d'entraînement ciblant des cas limites en langage médical et en réponse d'urgence multilingue. Il implémente également des techniques avancées comme le Group Relative Policy Optimization (GRPO), une variante du RLHF moins gourmande en mémoire que le PPO standard, en surveillant les courbes de récompense et en lançant des ablations pour identifier les composants efficaces. L'ensemble du suivi expérimental repose sur Trackio, un outil natif au Hub présenté comme alternative open-source à Weights & Biases. Cette publication s'inscrit dans une tendance de fond : l'automatisation du travail des chercheurs en IA par des agents eux-mêmes entraînés à raisonner sur des pipelines ML. Le benchmark PostTrainBench, développé par l'université de Tübingen et le Max Planck Institute, a servi de cadre d'évaluation standardisé, contraignant les agents à post-entraîner un modèle de base en moins de 10 heures. En positionnant ml-intern comme supérieur à Claude Code sur cette tâche précise, Hugging Face signale une ambition claire : faire de son écosystème, du Hub aux outils d'entraînement, une plateforme autonome et intégrée capable de rivaliser avec les solutions propriétaires d'Anthropic ou de Google. La disponibilité en open-source de l'agent ouvre la voie à des adaptations communautaires rapides, et le benchmark PostTrainBench devrait s'imposer comme référence pour évaluer les prochaines générations de ces outils.

UEHugging Face, entreprise française cofondatrice de l'écosystème open-source IA européen, renforce son positionnement face aux solutions propriétaires américaines en offrant aux équipes de recherche françaises et européennes un agent gratuit capable d'automatiser le post-entraînement de LLMs sans dépendance cloud.

OutilsOutil
1 source
Construire un pipeline d'optimisation bayésienne conditionnelle des hyperparamètres avec Hyperopt, TPE et arrêt anticipé
26MarkTechPost 

Construire un pipeline d'optimisation bayésienne conditionnelle des hyperparamètres avec Hyperopt, TPE et arrêt anticipé

Un tutoriel publié récemment détaille l'implémentation complète d'un pipeline d'optimisation bayésienne des hyperparamètres en Python, en combinant la bibliothèque Hyperopt et l'algorithme TPE (Tree-structured Parzen Estimator). L'objectif est de construire un espace de recherche conditionnel qui bascule dynamiquement entre deux familles de modèles (régression logistique et machines à vecteurs de support SVM), en explorant des plages de paramètres distinctes pour chacune. Le code s'appuie sur scikit-learn pour la construction de pipelines et l'évaluation par validation croisée stratifiée en 5 plis, appliquée au jeu de données Breast Cancer. Pour la régression logistique, les paramètres explorés incluent le coefficient de régularisation C sur une plage logarithmique de 1e-4 à 1e2, le solveur (lbfgs ou liblinear) et le nombre d'itérations maximum entre 200 et 2000. Pour le SVM, l'algorithme explore les noyaux rbf et polynomial, ainsi que les paramètres C et gamma. Le tutoriel intègre également un arrêt précoce déclenché dès que les améliorations de la fonction de perte stagnent, ainsi qu'une analyse complète de l'objet Trials, qui consigne l'historique de chaque évaluation effectuée. Pour les praticiens du machine learning, l'optimisation manuelle des hyperparamètres reste coûteuse en temps et peu reproductible. L'approche bayésienne présentée dépasse les méthodes classiques comme la recherche par grille ou la recherche aléatoire : au lieu d'explorer l'espace de paramètres de façon exhaustive ou aveugle, TPE modélise la distribution des configurations performantes et oriente intelligemment les essais suivants. La structure conditionnelle de l'espace de recherche, rendue possible par hp.choice dans Hyperopt, évite de tester des paramètres non pertinents pour une architecture donnée, réduisant ainsi le nombre d'évaluations inutiles. L'intégration du mécanisme d'arrêt précoce basé sur la stagnation des résultats permet en outre d'économiser des ressources de calcul significatives, un avantage concret dès que les modèles deviennent coûteux à entraîner. Hyperopt est une bibliothèque Python open source dont les bases théoriques remontent aux travaux de James Bergstra et ses collaborateurs sur les estimateurs de Parzen et l'optimisation bayésienne. Dans un contexte où l'entraînement de grands modèles mobilise des budgets considérables, l'optimisation efficace des hyperparamètres est devenue un enjeu industriel de premier plan. Des outils concurrents comme Optuna, Ray Tune ou Weights & Biases Sweeps proposent des fonctionnalités similaires voire plus avancées, mais Hyperopt conserve une base d'utilisateurs fidèle pour sa simplicité et son intégration directe dans des pipelines scikit-learn. Le framework présenté est conçu pour être étendu à l'apprentissage profond et aux environnements distribués, ce qui en fait un point d'entrée solide pour des équipes souhaitant industrialiser leur processus de tuning sans repartir de zéro.

OutilsTuto
1 source
Orchestration d'agents
27MIT Technology Review 

Orchestration d'agents

Les agents IA orchestrés en réseau constituent désormais la prochaine grande rupture technologique. Alors que ChatGPT a rendu les grands modèles de langage accessibles au grand public, les outils multi-agents représentent une étape qualitativement différente : des systèmes capables de déléguer, coordonner et exécuter des tâches complexes en parallèle. Claude Code, lancé par Anthropic l'année dernière, permet par exemple de piloter simultanément plusieurs dizaines de sous-agents, chacun affecté à une portion distincte d'une base de code. Chez OpenAI, Codex joue un rôle similaire. Anthropic affirme avoir développé son application de productivité Claude Cowork en seulement dix jours grâce à Claude Code, là où un projet comparable aurait nécessité plusieurs mois. Perplexity a également lancé Computer, un outil généraliste pour professionnels. Google DeepMind propose de son côté Co-Scientist, une plateforme qui permet aux chercheurs de confier à des équipes d'agents la recherche bibliographique, la génération d'hypothèses et la conception d'expériences. L'enjeu dépasse largement le secteur du logiciel. Ces outils s'adressent désormais à tous les cols blancs : gestion de boîtes mail, suivi d'inventaires, traitement des réclamations clients. La promesse centrale est de transformer le travailleur qualifié en chef de projet capable de superviser une équipe d'agents, multipliant ainsi sa productivité. Les partisans de cette technologie évoquent une rupture comparable à ce que la chaîne d'assemblage de Henry Ford a représenté pour l'industrie manufacturière au siècle dernier : une réorganisation profonde du travail de connaissance, potentiellement synonyme de suppressions massives de postes dans les fonctions tertiaires ou, à l'inverse, d'un bond de productivité sans précédent pour ceux qui sauront maîtriser ces outils. La montée en puissance de ces systèmes s'inscrit dans une dynamique portée par les géants de la tech. Des entreprises comme Nvidia et Tencent ont déjà commencé à développer leurs propres agents en s'appuyant sur des bases open source, comme celles popularisées par OpenClaw, un assistant personnel vocal qui avait capté l'attention malgré des failles de sécurité notoires. La vraie question qui se pose aujourd'hui n'est plus technique mais systémique : jusqu'où peut-on laisser des agents autonomes interagir avec des infrastructures critiques, des systèmes de santé, des plateformes financières ou des réseaux sociaux ? Les grands modèles de langage restent imprévisibles, et ce qui n'est qu'une erreur bénigne dans une interface de chat peut devenir un incident grave lorsque l'agent agit directement dans le monde réel. Le secteur avance vite, mais le cadre de contrôle, lui, peine à suivre.

UELa prolifération d'agents autonomes dans les fonctions tertiaires et les infrastructures critiques interpelle directement le cadre réglementaire européen, notamment l'AI Act qui classe certains usages d'agents autonomes comme systèmes à haut risque nécessitant audit et supervision humaine.

OutilsOutil
1 source
Google lance des agents Deep Research capables d'explorer le web et vos données privées
28VentureBeat AI 

Google lance des agents Deep Research capables d'explorer le web et vos données privées

Google a dévoilé lundi une mise à jour majeure de ses agents de recherche autonomes, en lançant deux nouvelles versions de son outil Deep Research dans l'API Gemini : Deep Research et Deep Research Max. Construits sur le modèle Gemini 2.5 Pro, ces agents permettent pour la première fois aux développeurs de combiner des données issues du web ouvert avec des informations internes à l'entreprise via un seul appel API. Ils intègrent également la génération native de graphiques et d'infographies directement dans les rapports produits, ainsi que la connexion à des sources de données tierces grâce au protocole MCP (Model Context Protocol). Les deux agents sont disponibles dès aujourd'hui en prévisualisation publique dans les offres payantes de l'API Gemini. Sur le plan des performances, Google annonce des scores de 93,3 % sur le benchmark DeepSearchQA et 54,6 % sur HLE pour la version Max, selon un message du PDG Sundar Pichai publié sur X. Les deux agents répondent à des besoins différents selon une logique de compromis entre vitesse et exhaustivité. Deep Research, la version standard, est optimisée pour des usages interactifs à faible latence : elle convient aux interfaces utilisateurs qui doivent répondre à des questions analytiques complexes en quasi-temps réel, comme un tableau de bord financier. Deep Research Max, à l'inverse, mobilise un calcul étendu à l'inférence pour produire des analyses plus profondes et mieux sourcées, conçues pour des workflows asynchrones en arrière-plan. C'est l'outil pour une équipe d'analystes qui lance une série de rapports de due diligence avant de quitter le bureau et les récupère entièrement traités le lendemain matin. C'est surtout la prise en charge du protocole MCP qui constitue le saut qualitatif le plus significatif : elle permet aux agents d'interroger des bases de données privées, des référentiels documentaires internes et des services de données spécialisés, transformant Deep Research d'un outil de veille web en quelque chose qui s'approche d'un analyste de données universel. Ce lancement s'inscrit dans une course qui s'intensifie entre les grands acteurs de l'IA pour proposer des systèmes capables de conduire de manière autonome des recherches multi-sources, un travail qui mobilise traditionnellement des heures, voire des jours, d'analyse humaine. Google positionne cette infrastructure comme l'épine dorsale des workflows de recherche en entreprise, notamment dans la finance, les sciences du vivant et l'intelligence de marché. La première version de Deep Research avait été lancée en décembre 2025 via l'Interactions API, et le produit aurait « gagné beaucoup de terrain en trois mois », selon Logan Kilpatrick, responsable des relations développeurs chez Google AI. Ce déploiement accéléré signale que Google entend faire de son API Gemini une plateforme centrale pour les applications d'agents d'entreprise, un segment où OpenAI, Anthropic et Microsoft se disputent également une position dominante.

UELes entreprises européennes intégrant leurs données internes via MCP devront vérifier la conformité RGPD avant d'adopter cette API.

OutilsOutil
1 source
Windows et Copilot : 5 astuces secrètes à connaître
29Le Big Data 

Windows et Copilot : 5 astuces secrètes à connaître

Microsoft intègre depuis plusieurs mois Copilot directement dans Windows 11, transformant l'assistant d'intelligence artificielle en outil natif accessible depuis n'importe quel contexte de travail. Parmi les fonctionnalités les moins connues, le raccourci clavier Alt + Barre d'espace permet d'invoquer Copilot instantanément par-dessus toute application ouverte, sans quitter l'écran actif. Sur les PC labellisés Copilot+, une touche physique dédiée remplit la même fonction. L'interface s'affiche soit en panneau latéral fixe, soit en fenêtre flottante compacte, selon les préférences configurées dans les paramètres système. Par ailleurs, Windows 11 intègre désormais un mode vocal accessible via une icône micro dans l'interface de l'assistant, permettant des échanges parlés en temps réel, avec transcription immédiate et réponse écrite, ou lue à voix haute selon le matériel. Le raccourci Win + H active quant à lui la dictée globale du système comme alternative complémentaire. Ces fonctionnalités changent concrètement la manière dont les professionnels interagissent avec leur machine. L'objectif affiché de Microsoft est de réduire les micro-interruptions : consulter l'IA sans minimiser ses fenêtres, poser une question vocalement sans structurer sa phrase, obtenir une aide sur une formule Excel ou une reformulation sans changer d'application. Pour les utilisateurs qui passent de longues heures sur des tâches cognitives, le gain en concentration est réel. Le mode vocal est particulièrement pertinent pour le brainstorming ou l'explication de problèmes complexes, où la fluidité orale dépasse la rapidité de frappe. Ces usages font de Copilot moins un moteur de recherche amélioré qu'un véritable partenaire de travail intégré au flux quotidien. Cette évolution s'inscrit dans la stratégie globale de Microsoft de placer l'IA au coeur de Windows, accélérée depuis l'investissement massif dans OpenAI et le lancement de Copilot en 2023. La certification Copilot+ PC, introduite en 2024, définit un nouveau standard matériel incluant une puce NPU dédiée aux traitements d'IA locaux, permettant des fonctions comme Recall ou la génération d'images en temps réel. L'enjeu pour Microsoft est double : différencier Windows face à macOS sur le terrain de l'IA embarquée, et pousser les entreprises vers des abonnements Microsoft 365 Copilot, facturés 30 dollars par utilisateur par mois. La question qui reste ouverte est celle de l'adoption réelle : beaucoup de ces raccourcis et modes restent ignorés du grand public, ce qui explique la multiplication de guides pratiques pour démocratiser des usages que Microsoft juge pourtant centraux dans sa vision de l'informatique personnelle de demain.

UELes entreprises françaises et européennes sous Microsoft 365 sont directement concernées par l'abonnement Copilot à 30 $/utilisateur/mois, un surcoût à peser dans leurs décisions d'adoption.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
30Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
Google révolutionne la maison connectée : Gemini devient vraiment naturel
31Le Big Data 

Google révolutionne la maison connectée : Gemini devient vraiment naturel

Google a annoncé le 21 avril 2026 le déploiement de la fonctionnalité "Conversation continue" sur ses appareils équipés de l'assistant Gemini pour la maison connectée. Répondant à une demande largement exprimée par les utilisateurs du programme d'accès anticipé, cette mise à jour supprime l'obligation de répéter le mot d'activation "Hey Google" à chaque nouvelle commande. Concrètement, après une première interaction, le micro reste actif quelques secondes, permettant d'enchaîner les échanges sans relancer la commande vocale. Le déploiement s'accompagne de plusieurs évolutions : conservation du contexte conversationnel entre les répliques, prise en charge multilingue étendue à toutes les langues compatibles avec Google Home, amélioration de la détection pour distinguer les conversations informelles des vraies commandes, et ouverture de la fonctionnalité à l'ensemble des occupants d'un foyer, invités compris. L'activation se fait depuis les paramètres de l'application Google Home, et s'applique automatiquement à tous les appareils compatibles du domicile. Ce changement est significatif car il s'attaque à l'un des principaux freins à l'adoption quotidienne des assistants vocaux : la friction liée aux déclencheurs répétitifs. En rendant les échanges plus continus et moins mécaniques, Google cherche à transformer Gemini en interlocuteur réel plutôt qu'en outil à commandes isolées. Pour les foyers avec plusieurs occupants, la compatibilité multi-utilisateurs sans configuration individuelle représente un gain d'accessibilité concret. Pour les professionnels du secteur de la maison connectée, fabricants de dispositifs compatibles Google Home inclus, cette évolution redéfinit le niveau d'expérience utilisateur attendu, et pousse indirectement à réévaluer la conception des interactions vocales dans leurs propres produits. Cette mise à jour s'inscrit dans une course à la naturalité entre les grands acteurs de l'assistant vocal domestique. Amazon avec Alexa, Apple avec Siri HomeKit et Google se livrent depuis plusieurs années une compétition où la qualité de la conversation est devenue l'enjeu central, après avoir longtemps misé sur l'étendue du catalogue d'appareils compatibles. L'intégration de Gemini dans l'écosystème Google Home, amorcée progressivement depuis le tournant LLM de 2023-2024, marque l'aboutissement d'une stratégie visant à remplacer l'ancien Assistant par un modèle de langage plus capable. La prochaine étape probable concerne la mémoire à long terme entre sessions et la personnalisation contextuelle poussée, deux axes sur lesquels OpenAI et Anthropic exercent également une pression indirecte via leurs propres interfaces conversationnelles. La maison connectée entre dans une phase où l'intelligence du dialogue prime sur le simple catalogue de commandes.

UELa fonctionnalité 'Conversation continue' est disponible pour les utilisateurs francophones de Google Home, le français étant inclus dans les langues compatibles dès le déploiement.

OutilsOutil
1 source
Claude Code s'étend à toute l'organisation via Amazon Bedrock
32AWS ML Blog 

Claude Code s'étend à toute l'organisation via Amazon Bedrock

Anthropic et Amazon Web Services ont annoncé le lancement de Claude Cowork dans Amazon Bedrock, une intégration qui permet aux entreprises de déployer l'application de bureau Claude directement depuis leur infrastructure AWS. Concrètement, les utilisateurs téléchargent l'application Claude Desktop sur leur machine, puis le service informatique de l'entreprise pousse une configuration centralisée via des outils de gestion de parc comme Jamf, Microsoft Intune ou Group Policy. L'inférence est entièrement routée vers Amazon Bedrock dans les régions AWS choisies par l'organisation, sans licence par siège payée à Anthropic : la facturation est à la consommation, intégrée à l'accord AWS existant. L'application donne accès aux projets, artefacts, mémoire, import-export de fichiers, connecteurs distants et serveurs MCP. Les fonctionnalités nécessitant l'infrastructure Anthropic, onglet Chat, Computer Use, Skills Marketplace, sont exclues de cette offre. L'enjeu dépasse la seule productivité des développeurs. Claude Cowork vise à étendre l'adoption de l'IA à l'ensemble des travailleurs de la connaissance d'une organisation : chefs de produit, analystes, équipes juridiques ou RH peuvent déléguer de la recherche documentaire, de l'analyse de fichiers, de la génération de rapports, sans quitter leur environnement de travail habituel. Pour les entreprises soumises à des contraintes réglementaires strictes, l'argument central est la souveraineté des données : Amazon Bedrock ne stocke pas les prompts, fichiers, inputs ou outputs d'outils, ni les réponses du modèle, et ne les utilise pas pour entraîner des modèles fondamentaux. Les profils d'inférence régionaux, cross-régionaux ou globaux permettent de choisir le niveau de résidence des données adapté à chaque juridiction. Cette annonce s'inscrit dans une dynamique plus large de déploiement entreprise de l'IA générative, où les grands groupes cherchent à concilier puissance des modèles de pointe et exigences de conformité interne. AWS et Anthropic approfondissent ainsi un partenariat stratégique amorcé il y a plusieurs années, Amazon ayant investi plusieurs milliards de dollars dans Anthropic. Pour les organisations qui utilisent déjà Claude Code dans Bedrock pour leurs équipes techniques, la même configuration peut être réutilisée pour déployer Cowork. L'intégration avec IAM, VPC endpoints, CloudTrail et CloudWatch permet une gouvernance et une observabilité natives. La prochaine étape probable : étendre les capacités des serveurs MCP disponibles dans ce contexte géré, afin de connecter Claude aux systèmes métier internes sans compromettre l'isolation réseau.

UELes entreprises européennes soumises au RGPD peuvent déployer Claude à grande échelle via leurs régions AWS européennes, avec résidence des données garantie et sans que les prompts ou fichiers soient utilisés pour entraîner des modèles.

OutilsOutil
1 source
Une seule API, des rapports complets : la révolution Deep Research est là
33Le Big Data 

Une seule API, des rapports complets : la révolution Deep Research est là

Google a officiellement lancé le 21 avril 2026 deux nouveaux agents d'analyse accessibles via l'API Gemini : Deep Research et Deep Research Max. Alimentés par le modèle Gemini 3.1 Pro, ces agents transforment une simple requête en rapport d'analyse structuré, en enchaînant automatiquement la collecte de données, le recoupement de sources et la mise en forme des résultats. Deep Research cible les usages interactifs qui privilégient la rapidité, tandis que Deep Research Max adopte une approche plus exhaustive, multipliant les sources et affinant ses conclusions pour une précision accrue. L'API génère également des infographies et des graphiques directement intégrés aux rapports, rendant les données exploitables sans passer par des outils tiers. Des acteurs spécialisés comme FactSet, S&P Global et PitchBook participent déjà à l'écosystème, confirmant l'ancrage industriel de la démarche. Ce lancement change concrètement la façon dont les entreprises peuvent mobiliser l'IA pour l'analyse. Jusqu'ici, les outils de recherche automatisée se limitaient à récupérer des réponses ponctuelles ; l'API Deep Research orchestre un véritable processus d'investigation autonome. Elle connecte le web ouvert aux bases de données internes via le Model Context Protocol, permettant aux organisations d'intégrer leurs données propriétaires dans le flux d'analyse sans les exposer à l'extérieur. L'accès au web peut même être désactivé entièrement, ce qui ouvre la porte aux secteurs soumis à des contraintes de confidentialité strictes, finance, santé, droit. Les utilisateurs conservent par ailleurs un contrôle précis : ils peuvent ajuster le plan de recherche avant son exécution et suivre les étapes en temps réel, ce qui renforce la traçabilité des résultats produits. Cette évolution s'inscrit dans une course technologique qui s'est accélérée depuis que les grands laboratoires ont compris que la valeur des LLM ne réside pas seulement dans la génération de texte, mais dans leur capacité à raisonner sur des corpus complexes et hétérogènes. OpenAI avait ouvert la voie avec son propre produit Deep Research début 2025 ; Google répond aujourd'hui avec une offre directement exposée en API, ciblant les développeurs et les équipes analytiques plutôt que les seuls utilisateurs finaux. Les domaines visés, études de marché, sciences de la vie, analyse financière, sont précisément ceux où le coût de production d'un rapport de qualité est élevé et où la vitesse d'analyse constitue un avantage concurrentiel direct. La prochaine étape sera de mesurer si la qualité des rapports produits tient face aux standards des analystes humains dans ces secteurs exigeants.

UELes entreprises françaises des secteurs finance, santé et droit peuvent intégrer cette API d'analyse autonome dans leurs systèmes propriétaires via le Model Context Protocol, sans exposer leurs données à des services externes.

OutilsOutil
1 source
OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA
34Le Big Data 

OpenAI lance Euphony : la révolution Codex qui change la lecture des conversations IA

OpenAI a publié le 21 avril 2026 un nouvel outil open-source baptisé Euphony, conçu pour visualiser les données de chat et les journaux de sessions Codex. Concrètement, l'outil permet aux développeurs de coller une URL publique ou d'importer un fichier local, et Euphony convertit automatiquement ces données brutes en une interface de messagerie lisible dans le navigateur. L'outil prend en charge le rendu Markdown complet, y compris les formules mathématiques et les blocs de code, une fonction de traduction intégrée pour les sessions en langue étrangère, ainsi qu'un mode éditeur permettant de modifier directement le texte et les métadonnées sans changer d'environnement. Le filtrage par requêtes JMESPath permet de trier des milliers de conversations selon des critères très précis, tandis qu'un mode Focus masque les appels d'outils techniques pour ne conserver que le dialogue essentiel. Les développeurs peuvent également partager un lien direct vers un message spécifique et annoter les réponses avec des étiquettes colorées personnalisables. Cet outil répond à un problème concret et quotidien pour quiconque travaille avec des LLMs en production : les logs de sessions d'IA sont volumineux, structurés de façon peu intuitive, et difficiles à analyser manuellement. En rendant ces données navigables visuellement, Euphony accélère les cycles d'évaluation et de débogage. La visualisation des jetons Harmony, qui montre comment le modèle segmente chaque mot, apporte une transparence supplémentaire sur le fonctionnement interne du pipeline. Pour les équipes qui construisent ou affinent des agents IA, la possibilité d'annoter, de filtrer et de partager des extraits précis transforme un outil de consultation en véritable tableau de bord d'évaluation collaborative. OpenAI positionne Euphony dans un contexte où Codex, son moteur de génération de code, est de plus en plus utilisé pour des tâches complexes et des sessions longues générant des volumes importants de données conversationnelles. La publication en open-source signale une stratégie d'ouverture vers la communauté développeur, cohérente avec d'autres initiatives récentes de la société visant à rendre l'écosystème Codex plus accessible. En intégrant nativement le contenu système et les métadonnées développeur dans l'interface, l'outil comble un angle mort des environnements de développement actuels, où l'inspection du contexte complet d'une session reste fastidieuse. La prochaine étape logique serait une intégration directe dans les environnements de développement ou les plateformes d'évaluation de modèles, un marché où des acteurs comme LangSmith ou Weights & Biases sont déjà bien établis.

OutilsOutil
1 source
Traçabilité de bout en bout avec DVC et Amazon SageMaker AI MLflow
35AWS ML Blog 

Traçabilité de bout en bout avec DVC et Amazon SageMaker AI MLflow

Les équipes de machine learning en production font face à un problème récurrent : retracer précisément l'origine d'un modèle déployé. Quelle version du jeu de données l'a entraîné ? Peut-on reproduire à l'identique un modèle mis en production il y a six mois ? Amazon Web Services propose une réponse concrète en combinant trois outils : DVC (Data Version Control), Amazon SageMaker AI et SageMaker AI MLflow Apps. L'architecture s'articule en quatre étapes : un job SageMaker Processing prétraite les données brutes et les versionne via DVC en les poussant vers Amazon S3 ; un job SageMaker Training clone le dépôt DVC à un tag Git précis, récupère le dataset exact via dvc pull, entraîne le modèle et enregistre tout dans MLflow. Chaque run MLflow stocke un identifiant datagitcommit_id, soit le hash DVC pointant vers le dataset exact dans S3. Le modèle entraîné est ensuite enregistré dans le MLflow Model Registry et peut être déployé sur un endpoint SageMaker. La chaîne de traçabilité complète devient alors : modèle en production → run MLflow → commit DVC → dataset dans Amazon S3. Cet enchaînement répond à un besoin critique dans les secteurs régulés : santé, services financiers, véhicules autonomes. Dans ces domaines, les exigences d'audit imposent de relier chaque modèle déployé à ses données d'entraînement précises, et de pouvoir exclure à la demande des enregistrements individuels des futurs cycles d'entraînement. Sans ce niveau de traçabilité, une question apparemment simple, "quelles données ont servi à entraîner le modèle actuellement en production ?", peut mobiliser plusieurs jours d'enquête dans des logs dispersés, des notebooks et des buckets S3. La solution proposée réduit ce risque opérationnel en rendant la traçabilité structurelle plutôt qu'optionnelle. DVC est un outil open source gratuit qui étend Git pour gérer des datasets volumineux et des artefacts ML que Git seul ne peut pas versionner. MLflow, de son côté, assure le suivi des expériences, le registre des modèles et la lignée. Les deux outils couvrent chacun la moitié du problème de traçabilité, et leur combinaison ferme la boucle. L'implémentation requiert un compte AWS avec des permissions sur SageMaker, S3, CodeCommit et IAM, Python 3.11 ou 3.12, et le SDK SageMaker v3.4.0 minimum. Les notebooks utilisent AWS CodeCommit comme backend Git pour les métadonnées DVC, mais l'architecture est compatible avec GitHub, GitLab ou Bitbucket moyennant un simple remplacement de l'URL remote. AWS publie des notebooks d'accompagnement permettant de déployer les deux patterns décrits, traçabilité au niveau du dataset et traçabilité au niveau de l'enregistrement individuel, directement dans un compte AWS existant.

UELa traçabilité structurelle décrite répond directement aux exigences de documentation et d'auditabilité imposées par l'AI Act européen pour les systèmes d'IA à haut risque dans les secteurs régulés (santé, finance, véhicules autonomes).

OutilsTuto
1 source
Von recommande tous les grands modèles IA pour l'analyse des revenus, et automatise leur combinaison
36VentureBeat AI 

Von recommande tous les grands modèles IA pour l'analyse des revenus, et automatise leur combinaison

Von, une nouvelle plateforme d'intelligence artificielle lancée par l'équipe derrière Rattle, une startup spécialisée dans l'automatisation des processus, s'attaque à un paradoxe bien connu dans les entreprises tech : si les outils comme Claude Code ou Cursor ont radicalement transformé le quotidien des développeurs, les équipes commerciales restent, elles, prisonnières de silos de données, de saisies manuelles dans les CRM et de reportings approximatifs. Fondée par Sahil Aggarwal, Von se positionne non pas comme une solution ponctuelle supplémentaire, mais comme une "couche d'intelligence" unifiée pour les équipes Go-To-Market. La plateforme commence par construire un "graphe de contexte" de l'entreprise en ingérant des données structurées issues de CRM comme Salesforce et HubSpot, ainsi que des données non structurées provenant d'enregistreurs d'appels (Gong, Zoom, Chorus), de fils de messagerie et de documentation interne. Elle s'appuie ensuite sur une architecture multi-modèles : Claude d'Anthropic pour le raisonnement de haut niveau, ChatGPT pour le traitement massif de données, et Gemini de Google pour la génération de contenus créatifs comme les présentations et rapports. Lors d'une démonstration, Von a analysé 101 comptes PME pour identifier les risques de désabonnement en un peu plus de trois minutes, une tâche qu'un analyste humain effectuerait en une à deux semaines. L'enjeu est considérable pour les opérations commerciales. L'un des problèmes chroniques des équipes de vente est l'écart entre ce qui est enregistré dans un CRM et ce qui s'est réellement dit lors d'un appel client. Von résout ce problème en croisant automatiquement les transcriptions d'appels avec les données Salesforce, permettant d'identifier des incohérences dans les raisons de pertes de deals ou d'évaluer la santé d'une opportunité commerciale sur la base du sentiment réel exprimé, et non d'une mise à jour manuelle d'un commercial. La plateforme génère également des fiches de briefing pré-appel, des analyses de victoires et défaites commerciales regroupées par thèmes, et automatise les tâches administratives Salesforce à faible valeur ajoutée. En agissant comme un "Data Scientist IA" ou un "VP RevOps" virtuel, Von promet de libérer les équipes des tâches de reporting répétitives pour les recentrer sur la vente. Ce positionnement s'inscrit dans une tendance plus large de l'IA d'entreprise : après avoir conquis les workflows techniques, les grandes plateformes cherchent à s'implanter dans les fonctions commerciales et opérationnelles, historiquement moins automatisées. Von hérite de l'expertise de Rattle dans l'intégration des outils de vente, ce qui lui confère une connaissance fine des flux de données GTM. Le choix d'une stratégie "mixture of models" plutôt que d'un modèle unique reflète une maturité technique croissante dans l'industrie, où l'optimisation coût-performance dicte désormais l'architecture des solutions. La prochaine étape pour Von sera de démontrer sa capacité à s'imposer face à des acteurs établis comme Clari, Gong ou Salesforce Einstein dans un marché de l'intelligence des revenus déjà très concurrentiel et en pleine consolidation.

OutilsOutil
1 source
Snowflake élargit ses plateformes IA techniques et grand public
37AI News 

Snowflake élargit ses plateformes IA techniques et grand public

Snowflake a annoncé une expansion significative de ses deux plateformes d'intelligence artificielle, Snowflake Intelligence et Cortex Code, lors d'une mise à jour publiée cette semaine. Snowflake Intelligence cible les employés non techniques qui souhaitent automatiser des tâches métier en langage naturel : préparer des présentations, lancer des analyses multi-étapes ou envoyer des messages de suivi. Cortex Code, lui, s'adresse aux équipes de développement logiciel en entreprise. Parmi les nouveautés : des intégrations élargies avec Google Workspace, Jira, Salesforce et Slack via le protocole MCP (Model Context Protocol), de nouvelles connexions à des sources de données externes comme AWS Glue, Databricks et PostgreSQL, ainsi qu'un support du protocole ACP (Agent Communication Protocol). Une extension VS Code pour Cortex Code est en préversion privée, et un plugin Snowflake pour Claude Code est en cours de développement. Une application iOS pour Snowflake Intelligence doit entrer en préversion publique prochainement. La plateforme revendique plus de 9 100 clients utilisant ses produits IA chaque semaine, et plus de la moitié de sa base cliente utilise désormais l'une ou l'autre des deux plateformes depuis leur lancement il y a six mois. Ces annonces illustrent la montée en puissance des plateformes dites "agentiques" dans l'entreprise, capables d'exécuter des séquences de tâches de manière autonome à partir d'une simple instruction en langage naturel. Pour les grandes organisations, l'enjeu est de permettre à des collaborateurs sans compétences techniques de piloter des flux de travail complexes, tout en maintenant un contrôle strict sur les droits d'accès et la conformité aux politiques internes. La possibilité de sauvegarder et partager des workflows, combinée à des fenêtres de contexte étendues qui mémorisent les préférences utilisateur, réduit la friction dans l'adoption quotidienne. Le mode "Plan Mode", qui permet de prévisualiser et valider un flux avant son exécution, répond directement aux craintes des entreprises face aux agents IA autonomes. Ces développements s'inscrivent dans une course intense entre fournisseurs de données cloud pour devenir la couche d'orchestration IA de référence en entreprise. Snowflake, historiquement positionné sur le stockage et l'analyse de données, cherche à élargir son emprise vers l'exécution d'actions concrètes, un territoire que se disputent aussi Microsoft, Salesforce et Google. Les nouvelles fonctionnalités découlent en partie du projet SnowWork, une initiative de recherche lancée le mois dernier pour tester la plateforme et collecter les retours utilisateurs. L'ouverture via MCP et ACP signale une stratégie d'interopérabilité délibérée : plutôt que de construire un écosystème fermé, Snowflake mise sur la connectivité avec les outils déjà en place dans les organisations, pariant que la valeur viendra de l'orchestration plutôt que du remplacement.

OutilsOutil
1 source
Claude, mon designer attitré
38Ben's Bites 

Claude, mon designer attitré

Anthropic a lancé Claude Opus 4.7 ce week-end, accompagné d'une série de mises à jour significatives pour son écosystème. Le nouveau modèle améliore notablement les capacités de vision, c'est-à-dire l'interprétation d'images, et introduit un niveau de raisonnement inédit baptisé « xhigh », qui s'insère entre les niveaux « high » et « max » déjà existants. Simultanément, Claude hérite d'un onglet Design, une interface de type canvas avec chat latéral permettant de générer des wireframes ou des prototypes haute fidélité à partir d'un formulaire de 5 à 10 questions. Le flux image vers prototype se révèle particulièrement efficace, bien que les générations restent limitées à 2 ou 3 sessions hebdomadaires sur l'abonnement à 20 dollars pendant cette phase de prévisualisation. Du côté de l'agent de code Codex, trois nouveautés ont été déployées : la fonctionnalité Computer Use, qui permet à l'agent d'utiliser des applications macOS en arrière-plan sans bloquer l'ordinateur de l'utilisateur ; Chronicle, un mécanisme opt-in qui exploite le contexte d'écran récent pour construire des souvenirs ; et un ensemble de plugins, dont la génération d'images. Par ailleurs, la startup Factory AI, qui développe l'agent de code Droid, a bouclé une levée de fonds de 150 millions de dollars, portant sa valorisation à 1,5 milliard de dollars. Ces annonces illustrent la course effrénée des acteurs de l'IA à transformer leurs modèles en plateformes complètes. L'onglet Design de Claude, en particulier, s'attaque directement au marché du prototypage rapide jusqu'ici dominé par des outils comme Figma, en proposant une boucle de création entièrement guidée par le langage naturel. La fonctionnalité Computer Use de Codex, elle, cherche à dépasser les démos laborieuses de contrôle d'interface pour offrir une automatisation fluide en tâche de fond, ce qui représente un saut qualitatif si les performances tiennent à l'usage réel. La valorisation de Factory AI à 1,5 milliard confirme l'appétit des investisseurs pour les agents de développement logiciel autonomes. Dans ce contexte d'accélération, OpenAI a connu une semaine difficile sur le plan humain : trois cadres de premier plan ont quitté l'entreprise, à savoir Kevin Weil, ancien directeur produit devenu responsable d'OpenAI for Science, Bill Peebles, co-créateur du générateur vidéo Sora, et Srinivas Narayanan, directeur technique des applications B2B. Ces départs simultanés alimentent les questions sur la cohésion interne d'OpenAI à un moment charnière. Vercel a également annoncé avoir subi une intrusion via le compte d'un employé compromis sur un autre produit IA tiers, soulignant les risques croissants liés à la prolifération des outils connectés. Enfin, la critique adressée à Claude Cowork, l'espace de travail collaboratif d'Anthropic, rappelle une tension persistante : les capacités avancées restent inaccessibles aux utilisateurs non initiés, risquant de nourrir la désillusion envers l'IA pour les prochains mois.

UELes utilisateurs et designers européens peuvent accéder aux nouvelles fonctionnalités de prototypage de Claude via l'abonnement standard à 20 dollars, bien que les générations restent limitées en phase de prévisualisation.

OutilsOutil
1 source
Yelp rend son chatbot IA bien plus utile
39The Verge AI 

Yelp rend son chatbot IA bien plus utile

Yelp vient d'annoncer une refonte majeure de son assistant chatbot, baptisé Yelp Assistant, avec l'ambition de transformer la plateforme en véritable concierge numérique. Selon le communiqué officiel de l'entreprise, le bot sera désormais placé "au centre de l'expérience applicative", capable de répondre à des questions, formuler des recommandations personnalisées et gérer des réservations au sein d'une seule et même conversation. Cette mise à jour s'inscrit dans une série d'évolutions axées sur l'IA que Yelp déploie depuis plusieurs mois. L'enjeu est de taille : faire passer l'IA d'un rôle purement informatif à un rôle d'action concrète. Plutôt que de simplement lire des avis, l'utilisateur peut désormais accomplir une tâche complète sans quitter l'application. Pour Yelp, dont le modèle repose sur des millions d'avis générés par les utilisateurs, c'est aussi une façon de monétiser autrement cette base de données unique en guidant l'utilisateur jusqu'à la réservation finale. Cette initiative reflète une tendance plus large dans l'industrie tech : les plateformes à forte base de données propriétaires cherchent à transformer leur actif en avantage compétitif face aux assistants IA généralistes comme ChatGPT ou Google Gemini. Yelp, qui reste une référence aux États-Unis pour les avis locaux sur les restaurants et commerces, mise sur la profondeur de ses données de contexte local pour se différencier. La prochaine étape sera de voir si les utilisateurs adoptent réellement ce mode de navigation conversationnel plutôt que la recherche classique.

OutilsOutil
1 source
Siemens lance un système d'IA pour l'ingénierie d'automatisation
40AI News 

Siemens lance un système d'IA pour l'ingénierie d'automatisation

Siemens a dévoilé l'Eigen Engineering Agent, un système d'intelligence artificielle conçu pour planifier et valider des tâches d'ingénierie en automatisation industrielle. Intégré directement dans la plateforme TIA Portal (Totally Integrated Automation Engineering), qui compte plus de 600 000 utilisateurs dans le monde, cet agent autonome est capable d'interpréter des cahiers des charges, de générer du code pour automates programmables (PLC), de configurer des interfaces homme-machine (HMI) et d'affiner ses résultats jusqu'à ce qu'ils atteignent les critères de performance définis. Le système décompose les problèmes d'ingénierie en étapes séquentielles, évalue chaque résultat en boucle fermée, puis soumet la version finale à la validation d'un ingénieur humain. Selon Siemens, il exécute ces tâches deux à cinq fois plus vite que les workflows manuels équivalents. Des pilotes ont été menés auprès de plus de 100 entreprises dans 19 pays, impliquant notamment ANDRITZ Metals, CASMT et Prism Systems. Prism Systems a utilisé l'outil pour générer et importer du code SCL (Structured Control Language), tandis que CASMT l'a appliqué à la configuration de dispositifs, la génération de code et la visualisation HMI dans des lignes de production, réduisant ainsi les transferts entre spécialistes et les délais de livraison. L'Eigen Engineering Agent est disponible au sein du portfolio Xcelerator de Siemens. L'enjeu est considérable pour un secteur industriel sous pression. Les estimations du marché prévoient un déficit mondial pouvant atteindre sept millions de travailleurs dans la fabrication d'ici 2030, avec environ un poste d'ingénieur sur cinq actuellement non pourvu dans certains secteurs. Un outil capable d'automatiser des tâches d'ingénierie complexes et répétitives sans sacrifier la précision représente donc une réponse directe à cette pénurie structurelle. Pour les industriels, cela signifie concrètement des cycles de développement raccourcis, moins de dépendance à des spécialistes rares, et la possibilité d'intégrer des environnements hérités ou non documentés grâce à la capacité du système à lire les hiérarchies de contrôle et les dépendances de composants existants. Cette annonce s'inscrit dans une stratégie d'investissement massive de Siemens dans l'IA industrielle, matérialisée par un engagement d'un milliard d'euros annoncé précédemment. Le groupe allemand mobilise aujourd'hui plus de 1 500 spécialistes en IA et détient plus de 2 000 familles de brevets liés à l'IA à l'échelle mondiale. Le lancement de l'Eigen Engineering Agent illustre la transition du secteur industriel vers des systèmes d'IA agentiques, capables non plus seulement d'assister, mais d'exécuter des workflows complets de bout en bout. Les déploiements initiaux se concentrent sur l'ingénierie d'automatisation, mais Siemens indique que l'architecture est conçue pour s'étendre à d'autres segments de la chaîne de valeur industrielle, ouvrant la voie à une automatisation plus large des processus d'ingénierie dans les usines connectées.

UESiemens, groupe industriel allemand de référence en Europe, déploie cet agent directement dans les usines manufacturières européennes confrontées à une pénurie structurelle d'ingénieurs en automatisation, avec un potentiel de réduction des délais de livraison et de la dépendance aux spécialistes rares dans le tissu industriel français et européen.

OutilsOutil
1 source
Chronicle : cette nouveauté qui permet à Codex de comprendre votre écran
41Le Big Data 

Chronicle : cette nouveauté qui permet à Codex de comprendre votre écran

OpenAI a lancé le 20 avril 2026 une fonctionnalité expérimentale baptisée Chronicle, intégrée à Codex, son assistant de programmation basé sur l'IA. Chronicle capture le contenu récent affiché à l'écran de l'utilisateur pour enrichir automatiquement la mémoire de Codex. Concrètement, l'outil observe ce qui est visible en temps réel, qu'il s'agisse d'un bug dans un éditeur de code, d'un message Slack, d'un fichier ouvert ou d'un workflow en cours, et construit à partir de ces éléments un contexte exploitable sans que l'utilisateur n'ait besoin de le décrire manuellement. La fonctionnalité fait suite à une préversion des "mémoires" dans Codex sortie la semaine précédente, et reste pour l'instant réservée aux abonnés ChatGPT Pro sur macOS, avec certaines régions encore exclues. L'enjeu est de supprimer une friction fondamentale dans l'utilisation des assistants IA : la nécessité de re-contextualiser à chaque session. Jusqu'ici, un développeur devait expliquer à Codex ce sur quoi il travaillait, lui rappeler les fichiers concernés, les erreurs rencontrées, les interlocuteurs impliqués. Chronicle élimine cette répétition en observant directement l'environnement de travail. Codex peut ainsi détecter une erreur dans un projet, localiser les logs associés et agir sans interruption. Il retient également les habitudes de l'utilisateur, les outils préférés, les méthodes de travail, créant progressivement une expérience personnalisée proche de celle d'un assistant humain qui aurait passé des semaines à observer comment vous travaillez. Ce type de fonctionnalité place néanmoins OpenAI sur un terrain délicat. Pour fonctionner, Chronicle exige des autorisations étendues : enregistrement d'écran, accès aux fonctionnalités système. Les captures sont temporaires et disparaissent au bout de quelques heures, mais les souvenirs générés sont stockés localement sous forme de fichiers non chiffrés, accessibles potentiellement par d'autres programmes. Un utilisateur inattentif peut ainsi exposer des données sensibles capturées à l'écran sans s'en rendre compte. Par ailleurs, les agents fonctionnant en arrière-plan consomment rapidement les ressources allouées, ce qui contraint l'usage dans cette phase expérimentale. OpenAI se retrouve dans la position classique des acteurs qui veulent proposer une IA véritablement contextuelle, mais doivent le faire sans heurter les exigences de vie privée d'utilisateurs de plus en plus vigilants. Chronicle constitue une étape vers l'assistant ambiant dont l'industrie parle depuis des années, mais sa généralisation dépendra autant de sa robustesse technique que de la confiance que les utilisateurs voudront bien lui accorder.

UECertaines régions restant exclues au lancement, les utilisateurs européens pourraient être bloqués en raison des exigences du RGPD sur la collecte de données d'écran et le stockage local non chiffré.

OutilsOutil
1 source
Top des meilleurs avatar generators - avril 2026
42Le Big Data 

Top des meilleurs avatar generators - avril 2026

En avril 2026, le marché des générateurs d'avatars IA s'est structuré autour de trois acteurs dominants : HeyGen, Synthesia et Elai. HeyGen s'impose comme le leader du réalisme visuel avec plus de 100 modèles d'avatars humains haute définition, un clonage vocal avancé et une synchronisation labiale multilingue jugée quasi indiscernable du réel lors des tests pratiques. Synthesia, de son côté, se positionne comme la référence corporate avec un catalogue de plus de 140 avatars, une compatibilité avec 120 langues sans accent, et une robustesse adaptée aux volumes de production industriels. Elai complète ce podium avec un positionnement orienté personal branding. Ces trois outils partagent un point commun : transformer un simple script texte en vidéo présentée par un avatar en quelques clics, sans tournage ni équipement. L'enjeu de ces plateformes dépasse la simple curiosité technologique : elles redéfinissent concrètement la production de contenu vidéo pour les entreprises, formateurs, marketeurs et créateurs. Là où un tournage classique mobilise temps, matériel et budget, ces outils réduisent la barrière à l'entrée de manière radicale. Pour les équipes de formation en entreprise, Synthesia permet de déployer des modules e-learning en dizaines de langues sans refaire une seule prise de vue. Pour les marques cherchant une présence vidéo haut de gamme, HeyGen offre un rendu premium autrefois réservé aux productions coûteuses. Le prix reste toutefois un frein : les abonnements sont qualifiés d'élevés sur l'ensemble du segment, avec des essais gratuits volontairement limités. Ce classement s'inscrit dans une accélération plus large de la vidéo synthétique générative, portée par les progrès des modèles de diffusion et des architectures de lip-sync depuis 2023. HeyGen et Synthesia, tous deux fondés aux États-Unis, ont levé des fonds significatifs pour s'imposer comme standards mondiaux, tandis que des acteurs spécialisés comme Elai cherchent à se différencier sur des niches précises comme le branding personnel. La question de la détection des deepfakes et de la confiance des audiences reste un enjeu sous-jacent que ces plateformes gèrent en partie via des chartes d'usage. Les prochains mois verront probablement une course à l'interactivité en temps réel et à l'intégration directe dans les outils de présentation et de visioconférence, segment où plusieurs startups sont déjà actives.

UELes entreprises et formateurs européens peuvent réduire leurs coûts de production vidéo multilingue grâce à ces plateformes, mais leur domination américaine soulève des questions de conformité RGPD pour les usages professionnels en UE.

JetBrains Central : piloter l’ère du développement agentique en entreprise
43Le Big Data 

JetBrains Central : piloter l’ère du développement agentique en entreprise

JetBrains a annoncé JetBrains Central, une plateforme de pilotage centralisé destinée aux équipes de développement logiciel en entreprise qui adoptent l'IA agentique. Concrètement, la solution connecte les IDE, les consoles d'administration et les pipelines CI/CD dans un système unifié capable de coordonner plusieurs agents IA simultanément : Claude d'Anthropic, Gemini de Google, Codex d'OpenAI ou encore l'Assistant JetBrains natif. La plateforme intègre une console d'administration avec gestion des identités et des accès (IAM), un suivi en temps réel de chaque décision prise par les agents, ainsi qu'un système de facturation centralisé permettant de fixer des quotas de tokens par département et d'alerter ou bloquer l'exécution en cas de dépassement budgétaire. L'enjeu est majeur pour les directions techniques qui peinent aujourd'hui à gouverner une IA de plus en plus autonome. Sans cadre structuré, les risques de fuite de données et de dépenses incontrôlées sont réels : les entreprises jonglent entre de multiples abonnements, sans visibilité sur ce que font réellement les agents dans leur base de code. JetBrains Central répond à ce problème en segmentant les permissions par projet ou par équipe, en traçant chaque commit et chaque modèle utilisé, et en transformant la conformité réglementaire en processus automatisé plutôt qu'en obstacle. Pour les secteurs régulés comme la finance ou la santé, cette traçabilité fine constitue un prérequis non négociable. L'objectif affiché est de rendre la productivité liée à l'IA mesurable en valeur métier, et non plus un coût opaque dilué dans les budgets IT. Cette annonce s'inscrit dans un contexte de fragmentation critique des outils IA en entreprise : chaque fournisseur propose son propre agent, ses propres interfaces, ses propres modèles de tarification, rendant l'orchestration de workflows complexes particulièrement difficile. JetBrains, éditeur des IDE IntelliJ, PyCharm et WebStorm utilisés par des millions de développeurs, capitalise sur sa position centrale dans le SDLC (Software Development Life Cycle) pour imposer une couche d'orchestration neutre. La plateforme s'intègre également avec GitHub, GitLab et des IDE tiers, permettant aux agents d'intervenir directement dans les pipelines CI/CD pour corriger des bugs de build ou améliorer des scripts de déploiement. En misant sur l'ouverture multi-fournisseurs plutôt que sur un écosystème fermé, JetBrains parie que la gouvernance et l'observabilité deviendront les critères d'adoption déterminants à mesure que l'autonomie des agents IA s'accroît dans les environnements de production.

UELes entreprises européennes utilisant les IDE JetBrains (très répandus en Europe) peuvent adopter cette couche de gouvernance pour répondre aux exigences de traçabilité de l'AI Act et aux contraintes des secteurs régulés comme la finance et la santé.

OutilsOutil
1 source
30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais
44Le Big Data 

30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais

Google a déployé le 15 avril 2026 une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Workspace, en introduisant une trentaine de nouvelles voix IA expressives. Ces voix sont propulsées par Gemini 3.1 Flash TTS, un moteur de synthèse vocale de nouvelle génération capable d'intégrer des émotions, des pauses et des effets sonores directement dans la narration. Concrètement, les utilisateurs peuvent désormais insérer des instructions dans leur script, un mot lu avec enthousiasme, une pause marquée via une notation simple, voire un rire naturel, pour guider la performance vocale sans retouche audio manuelle. La mise à jour étend également la couverture linguistique de 8 à 24 langues, ajoutant notamment l'arabe, le bengali, l'hindi, le polonais, le thaï et le vietnamien. Le déploiement est progressif pour les comptes Google Workspace, Workspace Individual et les comptes personnels. Cette évolution répond à une limite longtemps reprochée aux outils de narration automatique : le ton uniforme et mécanique qui trahit immédiatement l'origine synthétique du contenu. Avec un panel de trente voix aux registres distincts, certaines dynamiques, d'autres pédagogiques ou posées, Google Vids permet d'adapter le style vocal au type de contenu sans effort supplémentaire. Une vidéo de formation peut désormais sonner différemment d'une présentation commerciale, ce qui réduit la fatigue auditive et renforce la crédibilité des productions. Pour les équipes qui utilisent Google Vids à grande échelle pour créer des tutoriels, des onboardings ou des communications internes, l'impact pratique est immédiat : moins de post-production, une meilleure rétention de l'audience, et une flexibilité narrative que les voix TTS classiques ne permettaient tout simplement pas. Google Vids, lancé en 2024 comme outil de création vidéo assistée par IA au sein de la suite Workspace, cherche à se positionner face à des concurrents comme HeyGen, Synthesia ou ElevenLabs qui ont fait de l'expressivité vocale leur argument central. L'intégration de Gemini 3.1 Flash TTS marque un tournant : Google dispose désormais d'un modèle capable de rivaliser sur ce terrain, en s'appuyant sur son écosystème d'entreprise déjà massivement déployé. L'ouverture à 24 langues signale aussi une ambition internationale claire, notamment vers les marchés asiatiques et du Moyen-Orient où la demande en contenu vidéo professionnel localisé est forte. La prochaine étape logique serait le clonage vocal personnalisé ou la synchronisation labiale, des fonctionnalités que plusieurs concurrents proposent déjà et que Google n'a pas encore annoncées pour Vids.

UELes équipes françaises utilisant Google Workspace bénéficient immédiatement de voix expressives en français et d'une réduction du temps de post-production pour leurs contenus vidéo internes.

OutilsOutil
1 source
BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %
45Interesting Engineering 

BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %

BMW Group a annoncé que des modèles d'intelligence artificielle développés en partenariat avec l'Université de Zagreb permettent de réduire la consommation de matériaux et le temps de production dans la fabrication de cellules de batteries de plus de 50 % sur certaines étapes du processus. Ce projet de recherche baptisé "Insight", lancé en 2024 avec le Centre régional d'excellence en technologie robotique de l'université croate, couvre l'ensemble de la chaîne de valeur : de la fabrication des électrodes aux tests de fin de ligne, en passant par le recyclage direct. Les travaux sont menés au Battery Cell Competence Centre de Munich, où BMW développe les cellules destinées aux prochaines générations de batteries haute tension pour véhicules électriques. Le système d'IA combine des résultats de tests existants avec des données de production en temps réel pour anticiper les paramètres de fabrication et les performances des cellules, réduisant ainsi le nombre et la durée des séries de tests coûteuses. L'impact potentiel est considérable pour une industrie sous pression. La mise au point de cellules de batterie exige normalement de longues séries d'essais qui mobilisent des matières premières, des lignes de production et des capacités de laboratoire. En permettant de prédire les résultats plus tôt dans le processus, l'IA de BMW pourrait accélérer significativement la montée en cadence de la production de batteries électriques tout en réduisant les coûts et les déchets industriels. Le système cible également une étape souvent négligée : après leur première charge, les cellules sont maintenues en "quarantaine", une période de stockage sous températures contrôlées avant l'assemblage final. BMW indique que ses modèles pourraient à terme éliminer cette étape, libérant de l'espace en usine et réduisant les délais de production des packs batteries. BMW concentre ses opérations sur les cellules entre trois sites bavarois : Munich pour la recherche et le développement, Parsdorf pour la production quasi-série, et Salching pour le recyclage. Le projet "Insight" implique des doctorants et étudiants croates chargés d'organiser les données de production et de construire des modèles capables de détecter des corrélations entre qualité, coûts et rendement. Christian Siedelhofer, responsable du développement technologique des cellules lithium-ion chez BMW, a précisé que l'entreprise travaille à faire passer ces modèles du prototype vers un déploiement à l'échelle de son réseau de production. Le partenariat joue aussi un rôle de vivier de talents pour attirer de futurs spécialistes en batteries et en IA. BMW n'a pas précisé quels modèles d'IA sont utilisés ni à quelle échéance un déploiement industriel complet pourrait intervenir.

UEBMW, constructeur allemand, déploie l'IA dans ses usines bavaroises en partenariat avec une université croate, renforçant potentiellement la compétitivité européenne dans la filière batterie face aux acteurs asiatiques.

OutilsActu
1 source
Simulateur d'outils : tests à grande échelle pour agents IA
46AWS ML Blog 

Simulateur d'outils : tests à grande échelle pour agents IA

Amazon Web Services a lancé ToolSimulator, un framework de simulation d'outils propulsé par des LLM, intégré au SDK Strands Evals. Disponible dès maintenant, cet outil permet aux développeurs de tester en profondeur les agents IA qui dépendent d'API externes, de bases de données ou de services MCP, sans jamais déclencher d'appels réels. Concrètement, un développeur qui teste un agent de réservation de vols peut simuler des recherches, des confirmations et des annulations avec des données réalistes et cohérentes, sans envoyer de vraie requête à une compagnie aérienne. L'installation se résume à une commande pip install strands-evals, et aucun compte AWS n'est requis pour exécuter les simulations localement. L'enjeu est considérable pour les équipes qui industrialisent des agents IA. Tester contre des API en production expose des données personnelles, risque de déclencher des actions irréversibles comme l'envoi d'e-mails ou la modification de bases de données, et se heurte aux limites de débit qui rendent impraticable le passage à l'échelle sur des centaines de scénarios de test. Les mocks statiques, l'alternative habituelle, s'avèrent insuffisants dès qu'un agent enchaîne plusieurs appels dont le deuxième dépend de l'état laissé par le premier. ToolSimulator résout ce problème en maintenant un état partagé cohérent entre les appels successifs : une écriture affecte les lectures suivantes, exactement comme dans un système réel. Les schémas de réponse peuvent être imposés via des modèles Pydantic, ce qui garantit la validité structurelle des sorties simulées et permet de détecter les bugs d'intégration tôt dans le cycle de développement. Ce lancement s'inscrit dans la montée en maturité de l'outillage autour des agents IA autonomes, un segment en pleine explosion depuis l'essor des modèles capables d'utiliser des outils externes. AWS positionne Strands Evals comme une réponse aux besoins des équipes qui passent du prototype à la production : l'absence de cadre de test robuste est aujourd'hui l'un des principaux freins à ce passage. ToolSimulator rejoint un écosystème d'évaluation d'agents qui comprend déjà des solutions comme LangSmith d'Anthropic ou les environnements de sandbox d'OpenAI, mais mise sur l'intégration native avec le SDK Strands et la génération adaptative de réponses par LLM plutôt que sur des templates figés. La prochaine étape naturelle sera d'étendre ces capacités aux workflows MCP complexes et aux agents multi-modaux, à mesure que les cas d'usage en production se diversifient.

OutilsOutil
1 source
Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer
47The Verge AI 

Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer

Epic Games a annoncé le lancement d'un nouvel outil appelé "conversations" pour les créateurs de contenu Fortnite, permettant d'intégrer des personnages non-joueurs (PNJ) propulsés par intelligence artificielle dans les îles personnalisées. Contrairement aux arbres de dialogue traditionnels, ces PNJ peuvent désormais interagir de manière spontanée avec les joueurs, en jouant par exemple le rôle d'un donneur de quêtes ou d'un narrateur. Les créateurs définissent la personnalité du personnage via des prompts simples, choisissent une voix, et le système gère ensuite les échanges en temps réel. Cette fonctionnalité marque une évolution significative dans la création de jeux au sein de l'écosystème Fortnite, en rendant accessible à tous les créateurs une technologie d'IA conversationnelle jusqu'ici réservée à des productions à gros budget. Elle pourrait transformer la profondeur narrative des expériences créées par la communauté, sans nécessiter de compétences en programmation avancées. Toutefois, Epic impose des règles strictes d'utilisation : les personnages ne peuvent pas être configurés pour entretenir des relations romantiques ou simuler une connexion émotionnelle avec les joueurs. Cette initiative intervient quelques mois après qu'Epic a intégré un Darth Vader alimenté par IA dans Fortnite, un personnage qui avait défrayé la chronique en prononçant des jurons avec une voix recréant celle de James Earl Jones. Le géant du jeu vidéo s'inscrit ainsi dans une tendance de fond où les grands studios cherchent à démocratiser l'IA générative pour les créateurs tiers, tout en établissant des garde-fous éthiques pour éviter les dérives, notamment auprès d'un public jeune.

OutilsOutil
1 source
Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic
48AWS ML Blog 

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic

Amazon a présenté une architecture complète pour construire des systèmes de commande vocale omnicanaux en s'appuyant sur deux de ses services cloud : Amazon Bedrock AgentCore, une plateforme dédiée au déploiement d'agents IA en production, et Amazon Nova 2 Sonic, un modèle de fondation speech-to-speech disponible via Amazon Bedrock. La solution permet à une application de traiter des commandes vocales en temps réel sur plusieurs points de contact simultanément, application mobile, site web et interface vocale, tout en maintenant le contexte conversationnel entre les échanges. L'infrastructure s'appuie sur AWS CDK pour le déploiement, le protocole MCP (Model Context Protocol) pour connecter l'agent IA aux services métier, et une série de services managés : Amazon Cognito pour l'authentification OAuth 2.0, API Gateway pour exposer les endpoints REST, AWS Lambda pour la logique métier, DynamoDB pour le stockage des profils et commandes, et AWS Location Services pour les recommandations géolocalisées de points de retrait. L'intérêt principal de cette architecture réside dans sa capacité à isoler chaque composant pour les faire évoluer indépendamment. AgentCore Runtime exécute chaque session utilisateur dans une microVM isolée, ce qui garantit qu'un pic de charge sur une session n'affecte pas les autres, un problème classique des systèmes vocaux en production. Le MCP standardise la communication entre l'agent et les services backend, ce qui permet de modifier ou d'étendre la logique métier sans réécrire le code d'intégration. Pour les équipes qui construisent des expériences de commande vocale à grande échelle, restauration rapide, retail, logistique, cette séparation claire entre la couche IA, le frontend et le backend réduit significativement la complexité opérationnelle et les risques de régression lors des mises à jour. La publication de cette solution s'inscrit dans une compétition intense autour des agents IA en production. Google, Microsoft et des acteurs comme Anthropic proposent leurs propres infrastructures agentiques, mais AWS mise sur l'intégration native avec son écosystème de services cloud existants comme différenciateur clé. Nova 2 Sonic, le modèle speech-to-speech au coeur du système, représente l'entrée d'Amazon dans les interfaces vocales conversationnelles en temps réel, un segment où OpenAI s'est imposé avec GPT-4o Voice. En publiant ce tutoriel complet avec une architecture de restaurant fictive comme backend d'exemple, Amazon cherche à accélérer l'adoption par les développeurs et à établir AgentCore comme standard de fait pour le déploiement d'agents IA sur AWS. Les prochaines étapes logiques incluront probablement l'extension à d'autres modalités et l'intégration avec des systèmes de caisse et d'inventaire existants.

OutilsOutil
1 source
LinkedIn présente son agent de mémoire cognitive pour les agents IA
49InfoQ AI 

LinkedIn présente son agent de mémoire cognitive pour les agents IA

LinkedIn a dévoilé le Cognitive Memory Agent (CMA), une couche d'infrastructure d'IA générative destinée à rendre les systèmes d'intelligence artificielle persistants et conscients du contexte dans lequel ils opèrent. Ce framework fournit une mémoire durable organisée en trois couches distinctes : épisodique, qui retient les interactions passées ; sémantique, qui stocke les connaissances générales ; et procédurale, qui encode les comportements appris. Le CMA prend également en charge la coordination entre plusieurs agents, la récupération d'informations et la gestion complète du cycle de vie des mémoires. Cette initiative s'attaque à une limitation fondamentale des grands modèles de langage : leur absence d'état entre les sessions. Sans mémoire externe, chaque interaction repart de zéro, rendant impossible toute personnalisation durable. En déployant le CMA dans ses propres applications, LinkedIn ouvre la voie à des assistants IA capables de se souvenir des préférences professionnelles d'un utilisateur, de ses recherches d'emploi passées ou de ses habitudes de networking, transformant ainsi l'expérience sur une plateforme de plus d'un milliard d'utilisateurs. La mémoire des agents est devenue l'un des chantiers prioritaires de l'industrie, alors que les entreprises cherchent à faire passer leurs systèmes d'IA du mode réactif au mode autonome et continu. OpenAI, Google DeepMind et Anthropic développent des architectures comparables, mais LinkedIn dispose d'un avantage singulier : une base de données professionnelles sans équivalent. Le CMA positionne l'entreprise pour intégrer ces capacités directement dans ses outils de recrutement, de formation et de recommandation, avec des implications profondes sur la façon dont les professionnels interagiront avec l'IA au quotidien.

UELes millions de professionnels français inscrits sur LinkedIn pourraient voir leurs interactions avec les outils de recrutement et de formation de la plateforme profondément transformées par cette couche de mémoire persistante.

OutilsOpinion
1 source
Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée
50Le Big Data 

Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée

Mozilla a officialisé le 16 avril 2026 le lancement de Thunderbolt, une interface d'IA conçue pour un déploiement entièrement auto-hébergé en entreprise. Développé par MZLA Technologies, la filiale responsable de Thunderbird, l'outil se positionne comme un "client d'IA souverain" capable de se connecter à des modèles existants, Claude, Codex, DeepSeek ou tout modèle open source, via des API compatibles OpenAI ou ACP. Il repose sur Haystack, un framework open source reconnu pour la construction de pipelines d'IA modulaires. Thunderbolt est disponible en applications natives sur Windows, macOS, Linux, iOS, Android et en version web, avec le code source React accessible sur GitHub. Un audit de sécurité est actuellement en cours avant une mise en production à grande échelle, et Mozilla encourage déjà les entreprises à explorer des déploiements sur site avec des licences adaptées. L'argument central de Thunderbolt est son architecture entièrement locale : les données restent sur l'infrastructure de l'entreprise, notamment via une base SQLite hors ligne, sans transit vers des services cloud externes. Le système intègre un chiffrement de bout en bout et des contrôles d'accès au niveau des appareils. Pour les organisations soumises au RGPD, aux réglementations sectorielles strictes, santé, finance, défense, ou qui manipulent des données sensibles, c'est un différenciateur décisif face aux offres de Microsoft, Google ou OpenAI qui centralisent tout. Thunderbolt prend en charge les usages devenus standards : chat, recherche, automatisation et workflows multi-appareils, ce qui limite la friction à l'adoption pour des équipes habituées aux outils IA grand public. Ce lancement s'inscrit dans une stratégie plus large que Mozilla a formulée dès novembre 2025 : "faire pour l'IA ce que nous avons fait pour le web", c'est-à-dire construire un écosystème ouvert et décentralisé face aux géants de la Big AI. Mozilla.ai, sa branche dédiée à l'IA open source, soutient en parallèle le développement d'outils et de modèles ouverts. Le pari de Mozilla est celui de l'interopérabilité contre l'enfermement propriétaire, la même philosophie qui a fondé Firefox contre Internet Explorer à l'époque. La demande pour des solutions souveraines ne cesse de croître en Europe notamment, portée par des impératifs réglementaires et une méfiance croissante envers la dépendance aux hyperscalers américains. Thunderbolt arrive donc au bon moment sur un marché B2B où la souveraineté technologique est devenue un critère d'achat à part entière, et non plus un simple argument marketing.

UEThunderbolt offre aux entreprises européennes soumises au RGPD et aux réglementations sectorielles (santé, finance, défense) une solution concrète pour déployer des workflows IA en conservant leurs données sur leur propre infrastructure, sans dépendance aux hyperscalers américains.

💬 Mozilla qui sort l'artillerie lourde sur la souveraineté IA, ça fait plaisir à voir. L'architecture tout-local avec SQLite hors ligne, l'audit sécu avant le lancement, la compatibilité OpenAI API pour brancher ses propres modèles, bon, sur le papier c'est exactement ce que les DSI européens réclamaient. Reste à voir si ça tient face aux besoins réels des grandes boîtes, parce qu'entre une démo GitHub propre et un déploiement santé à 5 000 users, il y a souvent un gouffre.

OutilsOutil
1 source