Aller au contenu principal
Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini
RobotiqueVentureBeat AI26min

Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Hugging Face, la startup new-yorkaise fondée il y a dix ans et devenue la référence mondiale pour l'hébergement de modèles d'IA open source, a lancé un App Store dédié à son robot de bureau Reachy Mini. Cette boutique d'applications compte déjà plus de 200 créations communautaires, toutes téléchargeables gratuitement par les propriétaires du robot. Le Reachy Mini, commercialisé à 299 dollars depuis juillet 2025 après le rachat de la startup Pollen Robotics par Hugging Face, s'est vendu à environ 10 000 unités en moins d'un an. Petit robot de bureau fixe, il est équipé d'une caméra, d'un haut-parleur et d'un microphone, et peut désormais être programmé sans aucune compétence en ingénierie grâce à l'agent IA maison baptisé "ML Intern". Il suffit de décrire un comportement en langage naturel, comme "faire un signe de la main quand quelqu'un dit bonjour", et l'agent génère, teste et déploie le code correspondant en quelques minutes.

L'enjeu dépasse largement la nouveauté gadget : Hugging Face veut faire pour la robotique ce qu'Apple a fait pour le smartphone, c'est-à-dire rendre la création d'applications accessibles à des millions de personnes sans formation technique. Jusqu'ici, développer une application robotique nécessitait de maîtriser des SDK propriétaires, la gestion du firmware et des abstractions matérielles complexes. En éliminant cette barrière, la plateforme permet à des non-ingénieurs de livrer des logiciels robotiques fonctionnels en moins d'une heure. Le PDG Clément Delangue voit également dans ce store un terrain d'expérimentation pour les créateurs de modèles d'IA, qui pourront tester les capacités physiques de leurs nouvelles architectures directement sur un robot réel.

La difficulté historique de la robotique tient au manque de données d'entraînement spécifiques : là où les grands modèles de langage ont pu s'appuyer sur des centaines de milliards de lignes de code généraliste via GitHub, les dépôts robotiques restent marginaux, avec seulement 17 000 repositories publics recensés. Hugging Face contourne ce problème en proposant une couche d'abstraction agnostique, compatible avec GPT-5.5, Claude Opus 4.6, Gemini Live, OpenAI Realtime et plusieurs autres modèles. Cette ouverture multiple crée un écosystème qui ne dépend d'aucun acteur unique. La prochaine étape sera probablement l'introduction d'options de monétisation pour les développeurs d'applications, absentes au lancement. Si la dynamique se confirme, Hugging Face pourrait transformer le Reachy Mini en plateforme de référence pour la robotique grand public, à l'heure où Boston Dynamics, Figure et d'autres misent sur des machines bien plus coûteuses et fermées.

Impact France/UE

Hugging Face est fondée par des Français et Pollen Robotics (fabricant du Reachy Mini) est une startup française de Bordeaux, ce lancement positionne l'écosystème français en tête de la robotique grand public open source mondiale.

💬 Le point de vue du dev

300 dollars, 200 apps communautaires, un agent qui génère le code depuis une phrase, bon, sur le papier c'est exactement ce qu'il fallait pour que la robotique grand public décolle enfin. La comparaison avec l'App Store d'Apple est surjouée, mais les briques techniques sont là cette fois, et Pollen Robotics de Bordeaux dans la boucle c'est un beau signal pour l'écosystème français. Reste à voir si les usages dépassent le gadget de bureau dans six mois.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

SlicerRoboTMS : extension open source de 3D Slicer pour la stimulation magnétique transcrânienne robotisée
1arXiv cs.RO 

SlicerRoboTMS : extension open source de 3D Slicer pour la stimulation magnétique transcrânienne robotisée

Une équipe de chercheurs a publié SlicerRoboTMS, une extension open-source pour la plateforme logicielle 3D Slicer, dédiée à la stimulation magnétique transcrânienne assistée par robot (Robo-TMS). L'article, déposé sur arXiv (référence 2504.25661), décrit une infrastructure logicielle unifiée qui combine navigation neurologique par IRM, vision par ordinateur et contrôle robotique au sein d'un même environnement. L'extension s'appuie sur les capacités existantes de 3D Slicer en matière d'imagerie médicale et communique avec les systèmes robotiques via des protocoles standardisés et des descriptions de configuration modulaires. Le code source est disponible librement sur GitHub, sous l'organisation OpenRoboTMS. La TMS conventionnelle est une technique non invasive de stimulation cérébrale largement utilisée en psychiatrie, neurologie et recherche en neurosciences, notamment pour traiter la dépression résistante aux médicaments. Son principal défaut : la précision du positionnement de la bobine magnétique sur le crâne dépend entièrement de l'opérateur humain, ce qui nuit à la reproductibilité des traitements et des expériences. SlicerRoboTMS vise à résoudre ce problème en guidant un bras robotique à partir de données IRM du patient, améliorant ainsi la précision et la cohérence entre sessions. Pour les cliniques et les laboratoires, cela représente un gain concret en qualité de soin et en rigueur expérimentale, sans avoir à développer une infrastructure logicielle propriétaire coûteuse. Le développement de systèmes Robo-TMS bute depuis des années sur un obstacle majeur : l'intersection entre imagerie médicale, robotique et traitement du signal exige des compétences multidisciplinaires rares, que peu d'équipes réunissent. En proposant une solution open-source construite sur un logiciel médical déjà adopté mondialement, les auteurs abaissent significativement ce seuil d'entrée et facilitent le prototypage rapide. L'extension est conçue pour s'adapter à diverses configurations matérielles, ce qui la rend potentiellement compatible avec différents fabricants de bras robotiques. Les prochaines étapes naturelles concerneront la validation clinique à grande échelle et l'intégration dans des workflows hospitaliers certifiés.

UELes laboratoires de neurosciences et cliniques européens pratiquant la TMS pourraient adopter cet outil open-source pour standardiser et améliorer la précision de leurs protocoles, sans coût de développement logiciel propriétaire.

RobotiqueActu
1 source
GroundedPlanBench : planification de tâches longues horizon pour la manipulation robotique avec ancrage spatial
2Microsoft Research 

GroundedPlanBench : planification de tâches longues horizon pour la manipulation robotique avec ancrage spatial

Des chercheurs ont publié GroundedPlanBench, un nouveau benchmark conçu pour évaluer la capacité des modèles de vision-langage (VLM) à planifier des séquences d'actions robotiques tout en déterminant précisément où chaque action doit s'effectuer dans l'espace. Le benchmark s'appuie sur 308 scènes de manipulation robotique issues du dataset DROID, à partir desquelles des experts ont défini 1 009 tâches allant de séquences courtes (1 à 4 actions) à des chaînes longues et complexes (jusqu'à 26 actions). Chaque tâche est formulée selon deux styles d'instruction : explicite ("poser une cuillère sur l'assiette blanche") ou implicite ("ranger la table"). Pour accompagner ce benchmark, l'équipe a également développé V2GP (Video-to-Spatially Grounded Planning), un framework qui convertit des vidéos de démonstration robotique en données d'entraînement spatialement ancrées, en exploitant notamment SAM3, le modèle de segmentation vidéo open-vocabulary de Meta, pour suivre les objets manipulés image par image. Ce processus a permis de générer 43 000 plans ancrés. L'enjeu est de taille : aujourd'hui, la plupart des systèmes robotiques fonctionnent en deux temps séparés — un VLM génère un plan en langage naturel, puis un second modèle le traduit en actions exécutables. Cette approche découplée introduit des erreurs en cascade, car le langage naturel reste ambigu ou halluciné lorsqu'il s'agit de préciser à la fois ce qu'il faut faire et à quel endroit. GroundedPlanBench force les modèles à traiter ces deux dimensions simultanément, ce que les VLMs actuels — qu'ils soient open-source ou propriétaires — peinent à faire sur des tâches longues. Les résultats montrent que l'approche de planification ancrée améliore à la fois le taux de réussite des tâches et la précision des actions, surpassant les architectures découplées aussi bien sur le benchmark qu'en conditions réelles avec de vrais robots. Ce travail s'inscrit dans un mouvement plus large visant à doter les robots d'une compréhension spatiale fine du monde réel, au-delà de la simple compréhension sémantique. Les VLMs ont transformé la planification robotique en rendant possible l'interprétation d'instructions en langage naturel, mais l'ancrage spatial — savoir précisément sur quel objet agir et où le déposer — reste un verrou majeur pour les tâches du quotidien. En proposant à la fois un protocole d'évaluation standardisé et une méthode pour générer automatiquement des données d'entraînement à partir de vidéos de démonstration existantes, cette contribution pourrait accélérer le développement de robots manipulateurs capables d'opérer de façon autonome dans des environnements non contrôlés. Les prochaines étapes probables concerneront l'extension à des scènes encore plus dynamiques et à des instructions encore plus ambiguës, là où la frontière entre compréhension linguistique et raisonnement spatial est la plus ténue.

RobotiquePaper
1 source
On n’est plus dans la science-fiction : il est vraiment possible d’acheter un robot humanoïde en promo aujourd’hui
3Frandroid 

On n’est plus dans la science-fiction : il est vraiment possible d’acheter un robot humanoïde en promo aujourd’hui

L'Agibot X2 Ultra, robot humanoïde développé par la société chinoise Agibot, est désormais disponible à l'achat pour le grand public via la plateforme Joybuy, à un prix promotionnel de 36 889 euros contre 41 899 euros habituellement. La machine est capable d'interagir physiquement avec son environnement, de marcher de manière bipède, de danser et d'exécuter des gestes fins comme former un cœur avec les doigts, des capacités qui relevaient encore récemment du domaine expérimental. Ce basculement vers la commercialisation grand public marque un tournant symbolique : pour la première fois, un humanoïde fonctionnel peut être commandé en ligne comme n'importe quel produit électronique haut de gamme. Si le prix reste prohibitif pour un particulier, il se situe dans une fourchette accessible pour des entreprises souhaitant expérimenter l'automatisation physique sans attendre des déploiements industriels à grande échelle. La réduction de 5 000 euros, aussi anecdotique soit-elle, signale une logique de marché en train de s'installer. Agibot, fondée en 2023 à Shanghai et soutenue par des investisseurs proches de l'écosystème technologique chinois, s'inscrit dans une course mondiale à l'humanoïde qui voit s'affronter Figure, 1X, Agility Robotics ou encore Tesla avec Optimus. La Chine pousse activement ce secteur comme axe stratégique, avec des subventions publiques et un tissu industriel capable de produire à coût compétitif. La question n'est plus de savoir si ces robots seront viables, mais à quelle vitesse leurs prix s'effondreront pour atteindre une masse critique d'acheteurs.

UELes entreprises européennes peuvent désormais commander en ligne un robot humanoïde fonctionnel via Joybuy à environ 37 000 euros, rendant tangible une première expérimentation d'automatisation physique sans attendre des déploiements industriels.

RobotiqueOpinion
1 source
☕️ Un robot de Sony bat des champions humains au ping-pong
4Next INpact 

☕️ Un robot de Sony bat des champions humains au ping-pong

Le robot Ace, développé par Sony AI, a remporté trois des cinq matchs disputés contre des pongistes humains de haut niveau, marquant une première dans l'histoire de la robotique sportive. Monté sur un bras à huit articulations avec une base mobile, Ace ne possède pas d'yeux à proprement parler, mais s'appuie sur neuf capteurs d'image et de mouvement (IMX273 et IMX636) répartis dans la salle pour couvrir la table sous tous les angles. Ce dispositif lui permet de suivre la balle en temps réel avec une latence de perception de 10,2 millisecondes, un exploit technique quand on sait qu'une balle de ping-pong peut dépasser les 20 m/s et atteindre 160 révolutions par seconde. Pour estimer la rotation, le système cible le logo imprimé sur la balle et en déduit l'axe et l'effet en quelques millisecondes. Le robot ajuste ses mouvements mille fois par seconde et dispose d'une bibliothèque de gestes appris lors de 3 000 heures de jeu en simulation. L'étude a été publiée dans la revue Nature. Cette performance illustre ce que Michael Spranger, président de Sony AI, décrit comme "l'une des dernières frontières" de la robotique : la vitesse non prédéterminée. Contrairement aux robots industriels qui répètent des mouvements calibrés à l'avance, Ace doit réagir à des dynamiques imprévisibles en conditions réelles, comme une balle touchant le filet et changeant de trajectoire à la dernière fraction de seconde. Le système peut corriger sa frappe en plein geste, ce qui représente un saut qualitatif considérable pour les robots autonomes appelés à interagir avec des humains à vitesse humaine. Pour l'ancien pongiste olympique Kinjiro Nakamura, convié à s'opposer au robot, un coup en particulier a été révélateur : Ace a intercepté la balle très tôt pour lui imprimer un effet coupé inattendu, un geste que Nakamura n'avait jamais vu chez les meilleurs joueurs. Sa réaction dit beaucoup : "Maintenant que j'ai vu le robot le faire, cela signifie que les humains pourraient aussi y parvenir." Ce projet s'inscrit dans une trajectoire déjà bien balisée chez Sony AI, qui avait développé GT Sophy, un agent de course capable d'affronter les joueurs dans le simulateur Gran Turismo. Ace applique des principes similaires au monde physique, là où la chaîne perception-décision-action ne peut tolérer aucun délai. Dans un contexte plus large, cette victoire rappelle les étapes franchies par Deep Blue aux échecs en 1997, puis par AlphaGo au jeu de Go en 2016 : chaque fois, la machine repousse une limite que l'on croyait réservée à l'intelligence et aux réflexes humains. Les prochains défis pour Sony AI seront d'étendre ces capacités de réaction ultrarapide à des environnements moins contrôlés que la table de ping-pong, et de voir si ces avancées peuvent irriguer des applications industrielles ou médicales où la précision en milliseconde est critique.

RobotiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour