Aller au contenu principal
DAIMON Robotics veut doter les mains robotiques du sens du toucher
RobotiqueIEEE Spectrum AI2h

DAIMON Robotics veut doter les mains robotiques du sens du toucher

Résumé IASource uniqueImpact UE
Source originale ↗·

En avril 2026, la startup hongkongaise DAIMON Robotics a publié Daimon-Infinity, qu'elle décrit comme le plus grand jeu de données omni-modal au monde pour l'IA physique. Ce corpus regroupe des millions d'heures de données multimodales issues de plus de 80 scénarios réels et de 2 000 compétences humaines référencées, couvrant des tâches aussi variées que le pliage de linge à domicile et l'assemblage industriel en usine. Dix mille heures de ces données ont été rendues publiques en open source. Le projet a été développé en partenariat avec Google DeepMind, l'Université Northwestern et la National University of Singapore. Au coeur du dispositif : un capteur tactile visuel monochrome capable d'intégrer plus de 110 000 unités de détection dans un module de la taille d'un bout de doigt, alimenté par un réseau de collecte décentralisé pouvant générer plusieurs millions d'heures de données par an.

Ce lancement s'attaque à l'un des verrous les plus persistants de la robotique : l'absence de retour tactile dans les modèles d'apprentissage. Les architectures Vision-Language-Action (VLA), qui dominent aujourd'hui le domaine, reposent quasi exclusivement sur la vision, laissant les robots aveugles au toucher lors des manipulations physiques. DAIMON propose une alternative baptisée VTLA (Vision-Tactile-Language-Action), qui élève la perception tactile au rang de modalité à part entière, au même niveau que la vision. Pour les industriels et les chercheurs, l'enjeu est concret : un robot qui "sent" ce qu'il manipule peut gérer des objets fragiles, s'adapter à des textures inattendues et réduire drastiquement les erreurs de préhension. La publication de 10 000 heures en open source vise également à abaisser la barrière d'entrée pour les équipes de recherche qui peinent à constituer des datasets de qualité.

Fondée il y a deux ans et demi, DAIMON s'est construite autour de la technologie de capteurs tactiles haute résolution avant d'élargir son ambition vers la donnée d'entraînement à grande échelle. La stratégie est portée par le professeur Michael Yu Wang, cofondateur et directeur scientifique, titulaire d'un doctorat de Carnegie Mellon où il a étudié la manipulation sous la direction de Matt Mason, et fondateur de l'Institut de robotique de l'Université des sciences et technologies de Hong Kong. Fellow IEEE et ancien rédacteur en chef de la revue IEEE Transactions on Automation Science and Engineering, il cumule quatre décennies dans le domaine. À terme, DAIMON vise des déploiements commerciaux dans des environnements à forte manipulation manuelle, comme les hôtels et les supérettes en Chine, où des robots dotés du sens du toucher pourraient remplacer des tâches aujourd'hui infranchissables pour les machines.

Impact France/UE

Les équipes de recherche européennes en robotique peuvent accéder aux 10 000 heures de données tactiles publiées en open source, mais l'initiative est portée par des acteurs asiatiques sans implication directe de partenaires français ou européens.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Hyundai se lance dans la robotique et l'IA physique
1AI News 

Hyundai se lance dans la robotique et l'IA physique

Hyundai Motor Group a annoncé un pivot stratégique majeur vers la robotique et ce que le secteur appelle l'« IA physique », des systèmes d'intelligence artificielle intégrés à des machines capables d'agir et de s'adapter dans des environnements réels. Dans une interview accordée à Semafor, le président du groupe, Chung Eui-sun, a confirmé que ces technologies joueront un rôle central dans la prochaine phase de croissance du conglomérat coréen. Pour appuyer cette ambition, Hyundai prévoit d'investir 26 milliards de dollars aux États-Unis d'ici 2028, s'ajoutant aux quelque 20,5 milliards déjà engagés sur les quarante dernières années. Au cœur de ce plan : le déploiement de robots humanoïdes issus de Boston Dynamics, dont Hyundai a pris le contrôle en 2021, dans ses propres usines de fabrication. La production industrielle de ces robots est attendue vers 2028, avec un objectif de 30 000 unités par an d'ici 2030. Ce virage vers l'IA physique représente une transformation profonde du modèle opérationnel de Hyundai, qui vend chaque année plus de 7 millions de véhicules dans plus de 200 pays via 16 sites de production mondiaux. L'objectif n'est pas de substituer les robots aux humains, mais de leur confier les tâches répétitives ou physiquement exigeantes pendant que les opérateurs se concentrent sur la supervision et la coordination. Chung estime que cette réorganisation permettra d'améliorer l'efficacité et la qualité des produits face à des exigences clients en constante évolution. À terme, ces systèmes pourraient également s'étendre à la logistique et aux services de mobilité, même si les usines restent pour l'instant le principal terrain d'expérimentation. Hyundai n'évolue pas en isolation : la course à l'IA physique s'intensifie dans l'ensemble de l'industrie automobile et technologique, poussée par la convergence entre robotique avancée, données temps réel et modèles d'apprentissage automatique. Le groupe mise également sur l'hydrogène via sa marque HTWO, couvrant production, stockage et utilisation, qu'il présente comme complémentaire aux véhicules électriques, notamment pour alimenter les infrastructures d'IA et les centres de données dont les besoins énergétiques explosent. Ce double pari, robotique et énergie propre, reflète une lecture claire de la part de Chung : les mutations réglementaires et les nouvelles attentes des marchés régionaux imposent une refonte de la façon dont Hyundai produit et opère. Le constructeur, dont les marques Hyundai, Kia et Genesis forment encore le socle du chiffre d'affaires, entame une transition de long terme, du fabricant de véhicules vers un acteur de systèmes physiques intelligents.

UEHyundai, présent en Europe avec ses marques Kia et Genesis, pourrait déployer des robots humanoïdes Boston Dynamics dans ses sites de production mondiaux d'ici 2028, ce qui aura des répercussions sur la compétitivité industrielle automobile européenne.

RobotiqueOpinion
1 source
SPEAR-1 : dépasser les limites des démonstrations robotiques grâce à la compréhension 3D
2arXiv cs.RO 

SPEAR-1 : dépasser les limites des démonstrations robotiques grâce à la compréhension 3D

Des chercheurs de l'INSAIT ont présenté SPEAR-1, un modèle de fondation robotique capable de surpasser ou d'égaler des systèmes de pointe comme π0-FAST et π0.5 tout en utilisant vingt fois moins de démonstrations robotiques. Entraîné sur environ 45 millions de séquences vidéo issues de 24 jeux de données Open X-Embodiment, le modèle repose sur SPEAR-VLM, un modèle vision-langage doté d'une compréhension 3D capable de déduire les coordonnées spatiales d'objets à partir d'une simple image 2D. Les poids du modèle ainsi que les données annotées en 3D sont disponibles en accès libre sur spear.insait.ai. L'enjeu central de SPEAR-1 est la généralisation : là où la plupart des modèles robotiques peinent à s'adapter à de nouveaux environnements ou de nouvelles tâches une fois leur entraînement terminé, SPEAR-1 y parvient avec une fraction des données habituellement nécessaires. Cette efficacité représente un gain considérable pour les équipes de recherche et les industriels : collecter des démonstrations robotiques est coûteux, lent et difficile à mettre à l'échelle. En substituant une partie de ces données par des images ordinaires annotées en 3D, les chercheurs ouvrent une voie beaucoup moins contraignante vers des robots polyvalents. Le verrou que SPEAR-1 tente de lever est bien connu dans le domaine : les grands modèles vision-langage sur lesquels reposent aujourd'hui la plupart des systèmes robotiques ont été pré-entraînés sur des données 2D issues d'internet, sans capacité de raisonnement spatial en trois dimensions, pourtant indispensable pour agir dans le monde physique. Plutôt que de combler ce fossé en accumulant massivement des données robotiques, SPEAR-1 enrichit des images non robotiques avec des annotations 3D pour doter le modèle de base de cette compétence manquante. Cette approche s'inscrit dans une course mondiale à la robotique généraliste, où des acteurs comme Physical Intelligence, Google DeepMind et Figure AI investissent massivement pour créer des robots capables de s'adapter à des tâches variées sans reprogrammation.

UEINSAIT, institution européenne basée en Bulgarie, publie SPEAR-1 en open source, donnant aux chercheurs et industriels européens un accès direct à un modèle robotique de pointe nécessitant vingt fois moins de démonstrations que les systèmes concurrents.

💬 Le vrai problème de la robotique généraliste, c'est pas les modèles, c'est la data : collecter des démos robot coûte cher, ça prend du temps, et ça ne se met pas à l'échelle. SPEAR-1 contourne ça en substituant une bonne partie de ces démos par des images ordinaires annotées en 3D, et si ça tient hors du labo, c'est une avancée sérieuse pour des équipes qui n'ont pas les moyens de Physical Intelligence. Open source en plus, depuis l'Europe.

RobotiquePaper
1 source
Les dernières avancées en IA physique au Robotics Summit
3Robotics Business Review 

Les dernières avancées en IA physique au Robotics Summit

Le Robotics Summit & Expo 2026 se tiendra les 27 et 28 mai à Boston, et la conférence consacre pour la première fois une piste thématique entière à l'intelligence artificielle physique, soit l'intégration de l'IA dans des machines capables d'agir de manière autonome dans le monde réel. Parmi les intervenants confirmés figurent des dirigeants de Brain Corp, Agtonomy, Semaphor Surgical, Roboto AI, RealSense, AWS, MathWorks, NXP Semiconductors, Intrinsic, Universal Robots, PickNik Robotics et Path Robotics. Russ Tedrake, chercheur de référence en robotique, donnera une keynote sur sa vision des "Large Behavior Models", l'équivalent robotique des grands modèles de langage, appliqués à des robots industriels plus adaptatifs. Une démonstration en direct d'un robot IA incarné sera réalisée sur scène par Chris Matthieu de RealSense, tandis que MassRobotics présentera les lauréats de son Physical AI Fellowship et annoncera le gagnant de son troisième Form and Function Challenge. Ce programme illustre une transformation profonde de l'industrie robotique : l'IA ne sert plus seulement à optimiser des tâches répétitives, elle permet désormais aux machines de percevoir leur environnement, d'interpréter des instructions en langage naturel et d'adapter leur comportement en continu. Rachita Chandra d'AWS montrera comment des commandes formulées en langage courant sont converties en séquences d'actions concrètes pour des robots, une avancée qui rapproche la robotique du grand public et des entreprises sans compétences techniques spécialisées. Pour les industriels, les enjeux sont considérables : la logistique, la chirurgie, l'agriculture et la fabrication sont toutes concernées par des systèmes capables d'apprendre sur le terrain plutôt que d'être reprogrammés à chaque nouveau contexte. Cette édition du Robotics Summit s'inscrit dans une accélération mondiale des investissements en IA physique, portée notamment par les progrès des modèles vision-langage-action (VLA) et du reinforcement learning appliqué à la robotique. Des acteurs comme Universal Robots, leader mondial du robot collaboratif, et des startups comme Roboto AI ou Path Robotics cherchent à industrialiser ces approches encore largement expérimentales. La question des données reste centrale : Roch Nakajima de Noitom Robotics plaidera pour que les entreprises commencent à constituer leurs corpus de données dès maintenant, avant même de déployer des robots, en traitant ces données comme un actif stratégique. L'open source est également au coeur des débats, avec Brian Gerkey d'Intrinsic qui dressera un état des lieux des écosystèmes ouverts en IA et robotique, dans un secteur où la standardisation des outils de développement devient un enjeu de compétitivité autant que de collaboration.

UEUniversal Robots (danois) et NXP Semiconductors (néerlandais), acteurs européens majeurs présents au sommet, sont directement impliqués dans l'industrialisation de l'IA physique, un domaine où la compétitivité européenne se joue dès maintenant.

RobotiqueActu
1 source
Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle
4arXiv cs.RO 

Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle

Des chercheurs ont publié sur arXiv (référence 2604.20686) un cadre méthodologique permettant d'optimiser les proportions des phalanges dans les mains robotiques à cinq doigts, sans avoir à définir au préalable des objets précis ou des tâches de manipulation. Le système repose sur quatre métriques d'évaluation : la manipulabilité globale, le volume de l'espace de travail atteignable, le volume d'espace de travail partagé entre les doigts, et la sensibilité des extrémités. L'espace de travail est discrétisé via une représentation en voxels, et les mouvements articulaires sont découpés à intervalles uniformes pour permettre une évaluation systématique. L'optimisation s'applique séparément au pouce et aux quatre autres doigts, en excluant les combinaisons de conception qui ne génèrent pas de chevauchement d'espace de travail entre les doigts. Ce travail répond à un problème concret du développement robotique : jusqu'ici, évaluer quantitativement l'impact des ratios de longueur des phalanges sur la dextérité nécessitait de simuler des scénarios de manipulation spécifiques, ce qui rendait la phase de conception longue et peu généralisable. En proposant une fonction objectif pondérée applicable dès la phase de conception cinématique, les auteurs offrent aux ingénieurs un outil de décision précoce, indépendant des cas d'usage. Les résultats montrent que chaque phalange ne contribue pas de manière égale à la dextérité globale, et que le choix des coefficients de pondération ne conduit pas mécaniquement à maximiser chaque indicateur individuellement, en raison de la distribution non uniforme des mesures dans l'espace de conception. La conception des mains robotiques multi-doigts constitue l'un des défis persistants de la robotique humanoïde et de la manipulation industrielle. Des acteurs comme Boston Dynamics, Shadow Robot ou Agility Robotics investissent massivement dans la dextérité des effecteurs, qui conditionne directement l'utilisabilité des robots dans des environnements non structurés. Ce cadre méthodologique, en analysant systématiquement les compromis entre accessibilité, dextérité et contrôlabilité, pourrait accélérer les cycles de prototypage et s'imposer comme référence dans la conception cinématique des mains robotiques de nouvelle génération.

RobotiquePaper
1 source