Aller au contenu principal
GENESIS AI veut apprendre aux robots les gestes humains à grande échelle
RobotiqueFrenchWeb2h

GENESIS AI veut apprendre aux robots les gestes humains à grande échelle

Résumé IASource uniqueImpact UE
Source originale ↗·

Genesis AI, startup cofondée entre Paris et la Californie, ambitionne de reproduire dans le domaine physique la révolution qu'a opérée l'intelligence artificielle générative dans le logiciel. La société développe une approche destinée à enseigner aux robots des gestes humains complexes à grande échelle, en s'inspirant directement de la logique des grands modèles de langage : collecter des volumes massifs de données pour permettre une généralisation large des capacités motrices. L'objectif est de doter les systèmes robotiques d'une flexibilité comparable à celle que les LLMs ont apportée aux tâches cognitives.

L'enjeu est considérable pour l'ensemble de la filière robotique industrielle et grand public. Aujourd'hui, programmer un robot pour qu'il reproduise fidèlement un geste humain reste une tâche laborieuse, spécifique à chaque contexte, et difficile à transférer d'une situation à une autre. Si Genesis AI parvient à construire un modèle généraliste du mouvement physique, cela pourrait accélérer massivement le déploiement de robots dans des environnements non structurés : entrepôts, soins à domicile, industrie manufacturière.

La robotique connaît depuis 2023 une véritable effervescence autour des "foundation models" appliqués au mouvement, avec des acteurs comme Physical Intelligence (Pi), Figure AI ou Apptronik qui investissent massivement dans cette direction aux États-Unis. Genesis AI se distingue par son ancrage européen, notamment parisien, dans un secteur dominé par les capitaux américains et asiatiques. La capacité à générer et annoter des données de mouvement à grande échelle reste le verrou technologique central que la startup entend faire sauter.

Impact France/UE

Genesis AI, co-fondée à Paris, représente une initiative européenne dans la robotique fondationnelle, un secteur jusqu'ici dominé par les capitaux américains et asiatiques.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta veut devenir l’Android des robots humanoïdes
1Next INpact 

Meta veut devenir l’Android des robots humanoïdes

Meta a confirmé auprès de Bloomberg l'acquisition d'Assured Robot Intelligence (ARI), une startup spécialisée dans le développement de modèles d'intelligence artificielle pour la robotique. L'équipe d'ARI, présentée par Meta comme se situant « à la pointe de l'intelligence robotique, conçue pour permettre aux robots de comprendre, prévoir et s'adapter aux comportements humains dans des environnements complexes et dynamiques », rejoint le Meta Superintelligence Labs. Elle travaillera étroitement avec le Meta Robotics Studio, une division créée en février 2025 pour développer les technologies de base des robots humanoïdes. Ce rachat s'inscrit dans une stratégie plus large : Meta a déjà présenté en octobre 2025 des prototypes de capteurs tactiles avancés, le Digit Plexus, une solution matérielle pour intégrer des capteurs dans une main robotique, et le Digit 360, un capteur en forme de doigt fournissant des données haptiques très précises. Le géant des réseaux sociaux aurait par ailleurs déjà engagé des discussions avec Unitree Robotics, fabricant chinois connu pour ses robots acrobatiques, ainsi qu'avec Figure AI. L'ambition de Meta ne se limite pas à fabriquer ses propres robots : l'entreprise veut jouer un rôle de plateforme transversale pour toute l'industrie, sur le modèle d'Android et des puces Qualcomm dans l'écosystème des smartphones. Si ce positionnement réussit, Meta se retrouverait en position centrale dans un marché potentiellement colossal, en fournissant les briques logicielles et matérielles sur lesquelles d'autres constructeurs bâtiront leurs produits. L'enjeu industriel est réel : Amazon estime que les robots humanoïdes lui permettront d'éviter 600 000 embauches d'ici 2033, signal fort que la demande en environnements professionnels précède largement celle du grand public. Ce mouvement s'inscrit dans une dynamique de fond déclenchée par l'essor de l'IA générative, qui a fourni aux robots la capacité de comprendre des consignes en langage naturel, de décomposer des tâches complexes et de s'adapter à des situations imprévues, ce que les systèmes robotiques classiques ne pouvaient pas faire seuls. De nombreuses entreprises ont flairé l'opportunité d'un nouveau marché lucratif, et la compétition se structure rapidement. Tesla mise sur une approche intégrée verticalement avec Optimus, Elon Musk ayant promis lors du Forum de Davos une commercialisation possible dès fin 2026. Meta, dont le laboratoire de recherche fondamentale FAIR a vu son influence diminuer depuis le départ de Yann LeCun, réoriente clairement ses ressources vers ce chantier via le Superintelligence Labs. La question est désormais de savoir si le modèle « couche d'infrastructure ouverte » peut s'imposer face aux acteurs qui cherchent à tout contrôler, de la puce au châssis.

RobotiqueOpinion
1 source
Vidéo du vendredi : un robot humanoïde apprend à jouer au tennis face à des humains
2IEEE Spectrum AI 

Vidéo du vendredi : un robot humanoïde apprend à jouer au tennis face à des humains

Des chercheurs ont développé LATENT, un système permettant à un robot humanoïde d'apprendre des compétences de tennis dynamiques à partir de données de mouvement humain imparfaites. Par ailleurs, la startup Sharpa revendique être la première entreprise robotique à démontrer un robot épluchant une pomme avec deux mains dextres, grâce à leur architecture MoDE-VLA (Mixture of Dexterous Experts) fusionnant vision, langage, force et toucher. Ces avancées illustrent une semaine riche en démonstrations de manipulation bimanuelle de contact et de locomotion avancée, dont un robot UMV entraîné via NVIDIA Isaac Lab capable de sauter et de faire des pirouettes.

RobotiqueActu
1 source
Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart
3The Decoder 

Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart

Des chercheurs de Nvidia, de l'UC Berkeley et de Stanford ont publié un nouveau cadre d'évaluation destiné à mesurer systématiquement la capacité des modèles d'IA à contrôler des robots via du code. Leurs résultats sont sans appel : sans abstractions conçues par des humains, c'est-à-dire sans briques logicielles préfabriquées qui simplifient les tâches complexes, même les meilleurs modèles disponibles échouent à piloter efficacement un robot. En revanche, des approches comme le "test-time compute scaling" ciblé, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, permettent de combler significativement cet écart de performance. Ces conclusions ont des implications directes pour l'industrie de la robotique autonome. Elles remettent en question l'idée que les grands modèles de langage peuvent, seuls et sans infrastructure spécialisée, prendre en charge le contrôle bas niveau de machines physiques. Pour les entreprises qui misent sur des robots autonomes dans la logistique, la fabrication ou les services, cela signifie que la conception humaine reste indispensable, du moins à court terme, et que l'autonomie complète exige encore un travail d'ingénierie non négligeable. Ce travail s'inscrit dans une course plus large entre les laboratoires de recherche et les industriels pour rendre les robots véritablement programmables par l'IA. Nvidia, déjà très présent dans l'infrastructure d'entraînement des modèles, cherche à étendre son influence vers la couche applicative de la robotique. L'approche par échafaudage agentique, qui enchaîne des modules spécialisés plutôt que de tout déléguer à un seul modèle, semble aujourd'hui la piste la plus prometteuse pour franchir ce verrou technique.

UELes industriels européens de la robotique (logistique, fabrication, services) doivent intégrer que l'autonomie complète par IA nécessite encore une ingénierie humaine substantielle, ce qui prolonge les délais et coûts de déploiement dans leurs feuilles de route.

💬 Sans abstractions humaines, même les meilleurs modèles ratent le contrôle robotique, et ça, c'est pas vraiment une surprise. La vraie info, c'est que l'échafaudage agentique (enchaîner des modules spécialisés plutôt que tout déléguer à un seul modèle) tient mieux ses promesses que le scaling brut à l'entraînement. Reste à voir si ça tient en prod ou si ça reste un beau résultat de labo Stanford.

RobotiqueOpinion
1 source
Comment les robots apprennent : une courte histoire contemporaine
4MIT Technology Review 

Comment les robots apprennent : une courte histoire contemporaine

En 2025, les investisseurs ont injecté 6,1 milliards de dollars dans les robots humanoïdes, soit quatre fois plus qu'en 2024. Ce chiffre illustre un tournant spectaculaire pour une industrie longtemps boudée par la Silicon Valley après des décennies de promesses non tenues. Le changement de paradigme remonte à plusieurs ruptures technologiques successives : d'abord, vers 2015, l'abandon des systèmes à base de règles codées manuellement au profit de l'apprentissage par renforcement, où un robot simulé s'améliore par essais et erreurs sur des millions d'itérations. Puis, en 2022, l'irruption de ChatGPT a tout accéléré : les grands modèles de langage, entraînés sur des corpus massifs de textes, ont été adaptés à la robotique pour ingérer images, capteurs et positions articulaires, et prédire en temps réel la prochaine action à exécuter, en émettant des dizaines de commandes motrices par seconde. Ce glissement conceptuel, de la programmation exhaustive vers des modèles d'IA nourris de données massives, change radicalement ce qui est désormais possible. Un robot n'a plus besoin qu'un ingénieur anticipe chaque cas particulier, plier une chemise froissée, gérer une manche tordue, adapter le geste à un tissu délicat. Il apprend à generaliser. Cette approche fonctionne aussi bien pour des robots conversationnels que pour des machines qui naviguent dans un environnement physique ou accomplissent des tâches complexes. Pour les industriels, la perspective d'une main-d'œuvre robotique sans salaire devient crédible ; pour les acteurs du soin et du maintien à domicile, celle d'assistants capables d'interagir naturellement avec des personnes âgées ou à mobilité réduite se rapproche aussi. L'histoire de Jibo illustre parfaitement ce chemin parcouru. Ce petit robot social sans bras ni jambes, présenté en 2014 par la chercheuse du MIT Cynthia Breazeal, avait levé 3,7 millions de dollars en crowdfunding et suscité 4 800 précommandes à 749 dollars pièce. Il pouvait se présenter, danser pour des enfants, mais restait très limité faute de véritables capacités langagières, un domaine où il peinait à rivaliser avec Siri d'Apple. La société a fermé ses portes en 2019, victime de ses ambitions prématurées. Rétrospectivement, Jibo manquait précisément des modèles de langage qui existent aujourd'hui. C'est cette convergence, entre LLMs, apprentissage par renforcement et déploiement de robots imparfaits pour qu'ils apprennent dans leur environnement réel, qui redonne aujourd'hui à la Silicon Valley l'audace de rêver aux robots de science-fiction.

UEL'essor des robots humanoïdes ouvre des perspectives pour les secteurs français du soin et du maintien à domicile, mais les investissements restent largement concentrés hors d'Europe.

RobotiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour