Aller au contenu principal
OutilsThe Information AI43min

Meta développe un agent IA nommé Hatch et un outil d'achat à base d'agents pour Instagram

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta développe en secret un agent conversationnel autonome baptisé "Hatch", selon des sources proches du dossier. Inspiré d'OpenClaw, un agent développé par OpenAI, Hatch est actuellement en phase d'entraînement avec pour objectif un test interne d'ici fin juin 2026. Parallèlement, le groupe travaille sur un outil d'achat agentique intégré à Instagram, capable d'agir de manière autonome pour les utilisateurs. Pour préparer Hatch à des interactions réelles, Meta a construit des environnements web isolés simulant des plateformes comme DoorDash, Etsy, Reddit, Yelp et Outlook, permettant à l'agent de s'entraîner sur des répliques de sites existants.

Ces développements illustrent la pression croissante que Mark Zuckerberg exerce en interne pour que les investissements massifs de Meta en intelligence artificielle génèrent des retours concrets. Un agent capable de naviguer sur le web, passer des commandes ou interagir avec des services tiers représenterait un saut qualitatif majeur pour les produits Meta, transformant les assistants textuels actuels en véritables exécutants numériques. L'intégration dans Instagram d'un outil de shopping agentique ouvre également la voie à une monétisation directe via l'IA.

Meta s'inscrit ainsi dans une course engagée par tous les géants technologiques vers les agents autonomes. OpenAI, Google et Microsoft ont chacun lancé des systèmes similaires ces derniers mois. Pour Meta, dont les revenus restent très dépendants de la publicité, développer une couche agentique sur ses applications sociales constitue un enjeu stratégique de premier ordre, à la fois pour fidéliser les utilisateurs et ouvrir de nouveaux modèles économiques.

Impact France/UE

L'intégration d'un agent de shopping autonome dans Instagram, très utilisé en Europe, pourrait soulever des questions réglementaires au regard du RGPD et du Digital Markets Act concernant la collecte de données comportementales et les pratiques de monétisation agentique.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1NVIDIA AI Blog 

NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises

Lors de la conférence ServiceNow Knowledge 2026, Jensen Huang, fondateur et PDG de NVIDIA, est monté sur scène aux côtés de Bill McDermott, PDG de ServiceNow, pour annoncer l'extension de leur collaboration dans le domaine de l'intelligence artificielle en entreprise. Au coeur de cette annonce figure Project Arc, un agent autonome de bureau conçu pour fonctionner en continu et évoluer de façon autonome, destiné aux travailleurs du savoir comme les développeurs, les équipes IT et les administrateurs systèmes. Contrairement aux agents IA classiques, Project Arc s'intègre nativement à la plateforme ServiceNow via ServiceNow Action Fabric, et s'appuie sur OpenShell, un moteur d'exécution open source développé par NVIDIA permettant de déployer des agents dans des environnements sandbox gouvernés par des politiques de sécurité. L'agent peut accéder aux systèmes de fichiers locaux, aux terminaux et aux applications installées sur un poste de travail, et exécuter des tâches complexes en plusieurs étapes que l'automatisation traditionnelle ne peut pas prendre en charge. Ce partenariat marque un tournant dans la manière dont les grandes entreprises envisagent l'IA. Jusqu'ici cantonnée à la génération de texte ou au raisonnement assisté, l'intelligence artificielle passe désormais à l'action de façon autonome, durable et auditable. Pour les organisations, l'enjeu est considérable : déployer des agents capables d'agir sur de vraies infrastructures sans exposer des données sensibles ni contourner les règles de conformité. Project Arc répond à cette exigence en combinant l'AI Control Tower de ServiceNow, qui assure la gouvernance et la traçabilité de chaque action, avec le runtime sécurisé OpenShell de NVIDIA, qui définit précisément ce qu'un agent peut voir, quels outils il peut utiliser et comment chaque action est isolée du reste du système. L'annonce s'inscrit dans une tendance de fond : après des années d'investissements massifs dans les grands modèles de langage, les acteurs technologiques cherchent à concrétiser l'IA agentique dans des environnements professionnels réels. NVIDIA et ServiceNow misent sur un écosystème ouvert, fondé sur les modèles Nemotron de NVIDIA et des compétences spécialisées développées pour les ServiceNow AI Specialists, pour permettre aux entreprises d'adapter ces systèmes à leurs propres données et processus métier. Les deux sociétés co-développent également NOWAI-Bench, une suite de benchmarks ouverte pour évaluer les performances des agents IA en entreprise, intégrée à la bibliothèque NVIDIA NeMo Gym. L'environnement EnterpriseOps-Gym, l'un des plus exigeants du secteur, fait partie de cet effort pour établir des standards communs dans une course à l'agentique qui mobilise désormais tous les grands acteurs du cloud et de l'infrastructure.

UELes entreprises européennes pourraient déployer Project Arc en s'appuyant sur ses mécanismes de gouvernance et de traçabilité pour répondre aux exigences d'auditabilité imposées par l'AI Act.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
2Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
3MarkTechPost 

Construire un système d'agents modulaires à base de compétences pour LLM avec routage dynamique d'outils en Python

Un tutoriel publié récemment détaille comment construire en Python un système d'agents modulaires à base de compétences pour les grands modèles de langage, avec routage dynamique des outils. L'implémentation repose sur OpenAI (modèle GPT-4o-mini) et les bibliothèques open source Pydantic et Rich. L'architecture centrale s'articule autour de trois briques : une classe abstraite Skill qui encapsule chaque capacité (métadonnées, schéma JSON, logique d'exécution), un SkillRegistry qui joue le rôle de catalogue centralisé, et un orchestrateur qui sélectionne et enchaîne les compétences via le mécanisme de tool calling de l'API OpenAI. Chaque compétence est versionnée, auto-descriptive et expose automatiquement son schéma au format attendu par l'API, ce qui permet à un agent de l'invoquer sans configuration manuelle. L'intérêt de cette approche réside dans la séparation stricte entre la logique de chaque compétence et le raisonnement de l'agent. Concrètement, l'agent peut sélectionner la bonne compétence pour une tâche donnée, en composer plusieurs pour des workflows complexes, et charger de nouvelles capacités à chaud en cours d'exécution sans redémarrer le système. Un tableau de bord d'observabilité intégré trace le nombre d'appels et la latence moyenne de chaque compétence, ce qui facilite le débogage et l'optimisation en production. Pour les équipes qui construisent des agents LLM, cette modularité réduit la dette technique : ajouter une nouvelle capacité revient à écrire une classe isolée, sans toucher au reste du pipeline. Cette architecture s'inscrit dans une tendance plus large de structuration des systèmes agentiques, accélérée par la généralisation du tool calling dans les API des principaux fournisseurs (OpenAI, Anthropic, Google). La métaphore utilisée dans le tutoriel est explicite : le registre de compétences fonctionne comme une table de syscalls d'un système d'exploitation, l'agent étant le noyau qui dispatche les requêtes. Face à la multiplication des frameworks concurrents (LangChain, LlamaIndex, AutoGen), cette approche "from scratch" permet de comprendre les mécanismes sous-jacents et d'éviter les abstractions opaques. La prochaine étape logique de cette architecture est l'ajout de mémoire persistante et de planification multi-tours, deux fronts sur lesquels la recherche en agents LLM reste très active en 2025.

OutilsTuto
1 source
4AWS ML Blog 

Simulateur d'outils : tests à grande échelle pour agents IA

Amazon Web Services a lancé ToolSimulator, un framework de simulation d'outils propulsé par des LLM, intégré au SDK Strands Evals. Disponible dès maintenant, cet outil permet aux développeurs de tester en profondeur les agents IA qui dépendent d'API externes, de bases de données ou de services MCP, sans jamais déclencher d'appels réels. Concrètement, un développeur qui teste un agent de réservation de vols peut simuler des recherches, des confirmations et des annulations avec des données réalistes et cohérentes, sans envoyer de vraie requête à une compagnie aérienne. L'installation se résume à une commande pip install strands-evals, et aucun compte AWS n'est requis pour exécuter les simulations localement. L'enjeu est considérable pour les équipes qui industrialisent des agents IA. Tester contre des API en production expose des données personnelles, risque de déclencher des actions irréversibles comme l'envoi d'e-mails ou la modification de bases de données, et se heurte aux limites de débit qui rendent impraticable le passage à l'échelle sur des centaines de scénarios de test. Les mocks statiques, l'alternative habituelle, s'avèrent insuffisants dès qu'un agent enchaîne plusieurs appels dont le deuxième dépend de l'état laissé par le premier. ToolSimulator résout ce problème en maintenant un état partagé cohérent entre les appels successifs : une écriture affecte les lectures suivantes, exactement comme dans un système réel. Les schémas de réponse peuvent être imposés via des modèles Pydantic, ce qui garantit la validité structurelle des sorties simulées et permet de détecter les bugs d'intégration tôt dans le cycle de développement. Ce lancement s'inscrit dans la montée en maturité de l'outillage autour des agents IA autonomes, un segment en pleine explosion depuis l'essor des modèles capables d'utiliser des outils externes. AWS positionne Strands Evals comme une réponse aux besoins des équipes qui passent du prototype à la production : l'absence de cadre de test robuste est aujourd'hui l'un des principaux freins à ce passage. ToolSimulator rejoint un écosystème d'évaluation d'agents qui comprend déjà des solutions comme LangSmith d'Anthropic ou les environnements de sandbox d'OpenAI, mais mise sur l'intégration native avec le SDK Strands et la génération adaptative de réponses par LLM plutôt que sur des templates figés. La prochaine étape naturelle sera d'étendre ces capacités aux workflows MCP complexes et aux agents multi-modaux, à mesure que les cas d'usage en production se diversifient.

OutilsOutil
1 source