Aller au contenu principal
MolmoWeb, l'agent web entièrement open source d'AI2, navigue sur internet à partir de captures d'écran
OutilsThe Decoder6sem

MolmoWeb, l'agent web entièrement open source d'AI2, navigue sur internet à partir de captures d'écran

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Allen Institute for AI (AI2) vient de lancer MolmoWeb, un agent web entièrement open source capable de naviguer sur internet en s'appuyant uniquement sur des captures d'écran. Contrairement aux approches traditionnelles qui analysent le code HTML des pages, MolmoWeb perçoit le web comme un humain — visuellement — et interagit avec les interfaces sans accès au DOM sous-jacent.

Cette approche est notable car elle ouvre la voie à des agents capables d'opérer sur n'importe quel site, y compris ceux dont le code est obfusqué ou les interfaces hautement dynamiques. L'enjeu est de taille pour le secteur : les agents web autonomes représentent l'une des applications les plus concrètes de l'IA générative, avec des débouchés directs en automatisation de tâches, assistance numérique et robotique logicielle.

Malgré des architectures compactes de 4 et 8 milliards de paramètres, les modèles MolmoWeb surpassent plusieurs systèmes propriétaires nettement plus grands sur les benchmarks standards de navigation web. Ce rapport performance/taille illustre les progrès réalisés dans l'entraînement ciblé d'agents visuels. L'intégralité des poids, du code et des données d'entraînement est publiée en open source, dans la continuité de la démarche d'AI2 avec la famille Molmo lancée fin 2024.

Cette publication renforce la position d'AI2 comme acteur clé de l'open source en IA, face aux approches fermées de Google, OpenAI ou Anthropic sur le terrain des agents web. La transparence totale du modèle permettra à la communauté de l'auditer, de l'affiner et potentiellement de le déployer dans des environnements souverains sans dépendance à des API tierces.

Impact France/UE

Les chercheurs et développeurs européens peuvent adopter MolmoWeb sans dépendre de services propriétaires américains, réduisant ainsi les coûts et les contraintes de souveraineté numérique.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Hugging Face lance ml-intern, un agent IA open source qui automatise l'après-entraînement des LLM
1MarkTechPost 

Hugging Face lance ml-intern, un agent IA open source qui automatise l'après-entraînement des LLM

Hugging Face a publié ml-intern, un agent d'intelligence artificielle open-source conçu pour automatiser de bout en bout le post-entraînement des grands modèles de langage (LLM). Construit sur le framework smolagents de la société, l'outil est capable de réaliser de manière autonome des revues de littérature scientifique sur arXiv, de découvrir des jeux de données sur le Hub Hugging Face, d'exécuter des scripts d'entraînement et d'évaluer itérativement les résultats, le tout sans intervention humaine. Lors d'une démonstration officielle, l'agent a pris le modèle de base Qwen3-1.7B, qui obtenait initialement environ 10 % sur le benchmark GPQA de raisonnement scientifique, et l'a porté à 32 % en moins de 10 heures sur un seul GPU H100, franchissant la barre des 27,5 % en seulement trois heures. Ce résultat dépasse celui de Claude Code d'Anthropic, actuellement à 22,99 % sur cette même tâche, et se rapproche du record actuel de 33 % obtenu avec le modèle Gemma-3-4B, deux fois plus grand. L'impact de ml-intern est direct pour les équipes de recherche en machine learning : il automatise un cycle de travail qui mobilise habituellement plusieurs ingénieurs pendant plusieurs jours. L'agent gère la génération de données synthétiques lorsque les jeux de données existants sont insuffisants, comme dans un test médical où il a produit des exemples d'entraînement ciblant des cas limites en langage médical et en réponse d'urgence multilingue. Il implémente également des techniques avancées comme le Group Relative Policy Optimization (GRPO), une variante du RLHF moins gourmande en mémoire que le PPO standard, en surveillant les courbes de récompense et en lançant des ablations pour identifier les composants efficaces. L'ensemble du suivi expérimental repose sur Trackio, un outil natif au Hub présenté comme alternative open-source à Weights & Biases. Cette publication s'inscrit dans une tendance de fond : l'automatisation du travail des chercheurs en IA par des agents eux-mêmes entraînés à raisonner sur des pipelines ML. Le benchmark PostTrainBench, développé par l'université de Tübingen et le Max Planck Institute, a servi de cadre d'évaluation standardisé, contraignant les agents à post-entraîner un modèle de base en moins de 10 heures. En positionnant ml-intern comme supérieur à Claude Code sur cette tâche précise, Hugging Face signale une ambition claire : faire de son écosystème, du Hub aux outils d'entraînement, une plateforme autonome et intégrée capable de rivaliser avec les solutions propriétaires d'Anthropic ou de Google. La disponibilité en open-source de l'agent ouvre la voie à des adaptations communautaires rapides, et le benchmark PostTrainBench devrait s'imposer comme référence pour évaluer les prochaines générations de ces outils.

UEHugging Face, entreprise française cofondatrice de l'écosystème open-source IA européen, renforce son positionnement face aux solutions propriétaires américaines en offrant aux équipes de recherche françaises et européennes un agent gratuit capable d'automatiser le post-entraînement de LLMs sans dépendance cloud.

OutilsOutil
1 source
Comment créer une base de connaissances IA entièrement interrogeable avec OpenKB, OpenRouter et Llama
2MarkTechPost 

Comment créer une base de connaissances IA entièrement interrogeable avec OpenKB, OpenRouter et Llama

Un tutoriel publié récemment détaille comment construire une base de connaissances locale entièrement interrogeable en combinant trois outils : OpenKB, la plateforme OpenRouter et le modèle Llama 3.3 70B de Meta, accessible gratuitement sans carte bancaire. Le guide couvre l'ensemble du pipeline, de l'installation d'OpenKB via pip jusqu'à l'interrogation structurée de documents Markdown, en passant par la génération automatique de résumés et de pages conceptuelles au format wiki. La clé API OpenRouter est récupérée de façon sécurisée via la bibliothèque Python getpass, sans jamais être inscrite en dur dans le code. Le résultat est un système de connaissance navigable, avec gestion des liens croisés entre pages, capable de répondre à des requêtes en langage naturel et d'être mis à jour de manière incrémentale. Ce type d'architecture présente un intérêt concret pour les développeurs, chercheurs et équipes qui souhaitent organiser et interroger des corpus de documents internes sans envoyer leurs données vers des services cloud payants. En s'appuyant sur un modèle de 70 milliards de paramètres disponible gratuitement via OpenRouter, l'approche élimine le coût d'inférence tout en offrant des capacités de synthèse comparables à des solutions propriétaires. La possibilité d'analyser programmatiquement les relations entre pages et les liens croisés ouvre également des usages avancés : cartographie de concepts, détection de lacunes documentaires, ou navigation thématique automatisée dans de larges volumes de texte. L'émergence de ce genre de tutoriel s'inscrit dans une tendance plus large de démocratisation des outils RAG (retrieval-augmented generation), qui permettent d'ancrer les réponses d'un LLM dans une base documentaire locale plutôt que dans ses seuls paramètres d'entraînement. OpenRouter joue ici un rôle d'intermédiaire unifié, donnant accès à des dizaines de modèles open source via une API commune, ce qui réduit la friction technique pour expérimenter. OpenKB, de son côté, se positionne comme une couche d'abstraction au-dessus de ces modèles, spécialisée dans la structuration wiki et la navigation sémantique. Alors que des acteurs comme Notion AI ou Confluence intègrent des fonctions similaires dans des produits fermés, des solutions comme celle-ci permettent de garder le contrôle total sur les données et l'infrastructure, un enjeu croissant pour les entreprises soumises à des contraintes de confidentialité ou de souveraineté.

UECette architecture locale répond directement aux enjeux de souveraineté des données pour les entreprises et administrations européennes soumises au RGPD et aux contraintes de confidentialité.

OutilsTuto
1 source
Comment deployer Open WebUI avec integration securisee de l'API OpenAI, tunnel public et acces au chat depuis le navigateur
3MarkTechPost 

Comment deployer Open WebUI avec integration securisee de l'API OpenAI, tunnel public et acces au chat depuis le navigateur

Un tutoriel publié récemment détaille comment déployer Open WebUI dans Google Colab, l'environnement de notebooks Python hébergé par Google, en le connectant à l'API officielle d'OpenAI pour obtenir une interface de chat accessible directement depuis un navigateur. La procédure repose entièrement sur Python et couvre l'installation des dépendances via pip, la configuration sécurisée de la clé API OpenAI par saisie terminal (via getpass, pour éviter que les identifiants n'apparaissent en clair dans le notebook), la définition des variables d'environnement nécessaires, le lancement du serveur Open WebUI sur le port 8080, et la création d'un tunnel public via l'outil Cloudflared de Cloudflare. Ce tunnel génère une URL partageable qui permet d'accéder à l'interface depuis n'importe quel navigateur, même en dehors de Colab. Le modèle par défaut configuré dans l'exemple est gpt-4o-mini, mais l'utilisateur peut en choisir un autre au démarrage. Un répertoire de données dédié est créé dans /content/open-webui-data pour stocker les données d'exécution, et une clé secrète aléatoire est générée automatiquement pour sécuriser l'interface web. Ce type de déploiement intéresse principalement les développeurs, chercheurs et équipes techniques qui souhaitent expérimenter Open WebUI sans disposer d'un serveur dédié ni passer par une installation locale complexe. Colab offre une machine virtuelle gratuite (ou quasi-gratuite) avec accès réseau, ce qui en fait un terrain de test rapide pour des outils comme Open WebUI qui nécessitent normalement un environnement serveur. La capacité à exposer le service via un tunnel Cloudflare résout le problème classique d'accessibilité des services locaux dans Colab, rendant l'interface partageable en quelques minutes. Pour les équipes qui évaluent des alternatives à ChatGPT ou qui veulent tester Open WebUI avant un déploiement en production, cette approche réduit drastiquement la friction d'entrée. Open WebUI est une interface web open source conçue pour interagir avec des modèles de langage, qu'ils soient hébergés localement via Ollama ou accessibles via des API tierces comme celle d'OpenAI. Le projet a gagné en popularité depuis 2023 comme alternative auto-hébergeable aux interfaces propriétaires, avec des fonctionnalités comme la gestion de conversations, le support multi-modèles et la personnalisation des prompts système. Cloudflare Tunnel, l'outil utilisé ici pour l'exposition publique, est un service qui crée des connexions sécurisées sortantes sans nécessiter d'ouverture de ports ni de configuration réseau avancée. La combinaison de ces deux outils dans Colab reflète une tendance plus large : rendre les infrastructures IA accessibles à des non-ops, en abaissant les prérequis techniques pour expérimenter des stacks qui étaient jusqu'ici réservées aux équipes disposant de leurs propres serveurs.

OutilsTuto
1 source
L'approche open-source d'OpenSeeker vise à briser le monopole des données pour les agents de recherche IA
4The Decoder 

L'approche open-source d'OpenSeeker vise à briser le monopole des données pour les agents de recherche IA

OpenSeeker est un agent de recherche IA open-source qui atteint des performances comparables aux solutions d'Alibaba et d'autres acteurs majeurs, en n'utilisant que 11 700 points d'entraînement et un seul cycle d'entraînement. Le projet rend publiquement accessibles ses données, son code et son modèle, avec l'ambition de briser le monopole des données dans le domaine des agents de recherche IA.

OutilsPaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour