Aller au contenu principal
Les robots sont trop nuls dans la vraie vie : ces chercheurs ont enfin trouvé la solution
RobotiqueLe Big Data1h

Les robots sont trop nuls dans la vraie vie : ces chercheurs ont enfin trouvé la solution

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs des universités d'Aston et de Birmingham ont mis au point un système basé sur l'intelligence artificielle pour résoudre l'un des problèmes les plus persistants de la robotique industrielle : l'échec des robots à fonctionner correctement dans des conditions réelles après un entraînement en simulation virtuelle. Leurs travaux, soutenus par le projet REBELION dans le cadre d'un programme de UK Research and Innovation dédié au recyclage sécurisé des batteries lithium-ion, montrent des résultats probants sur des tâches concrètes impliquant des interactions physiques avec des matériaux, notamment la manipulation et la découpe. La méthode consiste à introduire automatiquement, pendant la phase d'entraînement virtuel, des variations et des perturbations dans l'environnement simulé, forçant le robot à apprendre à gérer l'instabilité et l'imprévisibilité bien avant de rencontrer le monde réel.

Ce que cette approche change fondamentalement, c'est la manière dont l'industrie peut déployer des robots dans des environnements complexes ou dangereux sans accumuler des milliers d'heures de tests physiques coûteux et risqués. Le "fossé entre simulation et réalité", ce phénomène bien connu des roboticiens où une machine maîtrisant parfaitement une tâche en virtuel déraille dans le monde physique à cause du bruit des capteurs, des légères variations de position des objets ou des forces inattendues, est précisément ce que cette méthode cherche à combler. Les résultats indiquent que les robots entraînés de cette façon deviennent plus stables et plus adaptatifs, même avec très peu de données réelles supplémentaires, ce qui représente un gain considérable en termes de coûts et de délais de mise en service.

Le secteur du recyclage des batteries lithium-ion constitue le cas d'usage prioritaire des chercheurs, car il implique la manipulation de cellules endommagées ou instables, rendant les tests directs particulièrement hasardeux. Mais l'ambition va bien au-delà : l'équipe espère déboucher sur des robots industriels quasi "prêts à l'emploi", capables d'être entraînés rapidement en simulation puis déployés dans un nouvel environnement avec un minimum de reconfiguration. Dans un contexte où l'automatisation industrielle est sous pression pour s'adapter à des chaînes de production plus flexibles et à des pénuries de main-d'œuvre, une telle avancée pourrait accélérer significativement l'adoption de la robotique dans des secteurs encore réticents à cause des coûts et de la complexité du déploiement. La prochaine étape sera d'étendre cette validation à des environnements industriels plus diversifiés et moins contrôlés.

Impact France/UE

La recherche adresse un verrou industriel directement concerné par la réglementation européenne sur les batteries : l'automatisation du recyclage des cellules lithium-ion, imposée par l'EU Battery Regulation, pourrait être accélérée grâce à cette méthode sim-to-real.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les robots livreurs s'imposent dans l'automatisation moderne
1Robotics & Automation News 

Les robots livreurs s'imposent dans l'automatisation moderne

Les robots de livraison s'imposent comme un maillon central de la nouvelle vague d'automatisation industrielle. Longtemps cantonnée aux chaînes de montage et aux entrepôts, l'automatisation évolue vers un modèle en réseau piloté par l'intelligence artificielle, la robotique autonome et les systèmes numériques connectés. Dans ce cadre, les robots de livraison ne se contentent plus de déplacer des colis : ils assurent des opérations physiques complexes dans des environnements dynamiques, aux côtés des humains, dans des secteurs aussi variés que la logistique, la santé et le commerce de détail. L'enjeu concret est de taille. En comblant le fossé entre les tâches numériques automatisées et les opérations physiques de terrain, ces machines permettent aux entreprises de réduire leur dépendance à la main-d'œuvre pour les tâches répétitives, d'accélérer les délais de traitement et de maintenir des opérations continues, sans interruption. Dans le secteur hospitalier par exemple, des robots assurent déjà le transport de médicaments et de matériel entre services, libérant le personnel soignant pour des tâches à plus forte valeur ajoutée. Cette transformation s'inscrit dans un mouvement plus large de convergence entre l'IA et la robotique physique, porté par des acteurs comme Boston Dynamics, Starship Technologies ou encore Amazon avec ses systèmes Proteus et Hercules. La baisse des coûts des capteurs et des modèles d'IA embarqués accélère l'adoption. La prochaine étape attendue est l'intégration de ces robots dans des écosystèmes logistiques entièrement pilotés par des agents autonomes, capables de s'adapter en temps réel aux flux et aux incidents.

UEL'automatisation par robots livreurs touche les secteurs de la logistique et de la santé en Europe, poussant les entreprises européennes à repenser leur organisation du travail pour les tâches répétitives.

RobotiqueOpinion
1 source
Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24
2Le Big Data 

Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24

Le rédacteur en chef de LeBigData.fr était l'invité d'Ali Laïdi dans l'émission "Aux avant-postes" sur France 24 pour évoquer l'essor des robots humanoïdes et leurs effets sur le marché du travail. Alors que les débats publics restent concentrés sur les IA génératives comme ChatGPT, une autre transformation s'accélère discrètement dans les laboratoires de la Silicon Valley et de Chine : des robots comme Optimus de Tesla, Atlas de Boston Dynamics, ou encore les modèles de Figure et Unitree ne sont plus de simples démonstrations technologiques. Ils sont désormais en phase de déploiement industriel réel, dans des usines et des entrepôts, avec une capacité croissante à manipuler des objets, porter des charges lourdes et s'adapter à des environnements non structurés. Le point de bascule mis en avant lors de cette intervention n'est pas technologique mais économique : le coût d'exploitation d'un robot humanoïde pourrait descendre à environ 1 dollar de l'heure d'ici quelques années. À ce niveau de prix, aucun marché du travail humain, même dans les économies à bas salaires, ne peut soutenir la comparaison. Les secteurs de la logistique, de la manutention et de la production industrielle seraient les premiers touchés, avant que l'automatisation physique ne s'étende progressivement aux environnements de bureau. Pour les entreprises, le calcul deviendra rapidement incontournable ; pour les travailleurs de ces filières, la transition risque d'être brutale et rapide. La question centrale que soulève cette mutation dépasse largement le cadre technologique : si le travail physique humain devient facultatif dans des pans entiers de l'économie, comment les États financeront-ils leurs systèmes de protection sociale, historiquement adossés aux cotisations salariales ? Comment redéfinir la valeur et la place de l'individu dans une économie massivement automatisée ? Ces enjeux, encore largement absents des agendas politiques, s'inscrivent dans un calendrier serré : les cinq prochaines années seront décisives selon l'intervenant, qui a approfondi ces questions dans un essai récemment publié, "Robots humanoïdes : vont-ils prendre votre travail ? Ce qui vous attend vraiment d'ici 2030". Pendant que les gouvernements débattent de la régulation des algorithmes, les déploiements physiques, eux, avancent à un rythme que peu d'acteurs institutionnels semblent encore mesurer.

UELa question du financement des systèmes de protection sociale français et européens, historiquement adossés aux cotisations salariales, est directement posée par la perspective d'une automatisation physique massive d'ici 2030.

RobotiqueOpinion
1 source
Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser
3Le Big Data 

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser

Google DeepMind a lancé le 14 avril 2026 Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à la robotique. Cette nouvelle version améliore significativement la compréhension visuelle et spatiale des robots, leur permettant de planifier et d'exécuter des tâches plus complexes avec une autonomie accrue. Concrètement, le modèle est capable d'identifier des points de préhension optimaux sur des objets variés, de traiter des informations provenant de plusieurs angles simultanément grâce à la compréhension multi-vues, et de détecter si une tâche a été accomplie avec succès. Il surpasse ses prédécesseurs directs, Gemini Robotics-ER 1.5 et Gemini 3.0 Flash, notamment sur la lecture des espaces tridimensionnels et l'interprétation des mouvements. Le modèle est disponible dès maintenant via l'API Gemini et Google AI Studio pour les développeurs souhaitant l'intégrer dans leurs projets. Cette avancée marque un tournant dans la manière dont les robots interagissent avec le monde physique. Jusqu'ici, les systèmes automatisés suivaient des instructions rigides, incapables de s'adapter à des environnements imprévus. Avec ER 1.6, les machines peuvent interpréter des jauges et des indicateurs industriels, cartographier des trajectoires en tenant compte des contraintes environnementales, et valider elles-mêmes les résultats de leurs actions. Ce niveau de raisonnement ouvre la voie à des déploiements dans des contextes industriels réels, où les situations ambiguës ou complexes sont la norme. Google insiste également sur les améliorations en matière de sécurité : les tests montrent une meilleure conformité dans des scénarios de raisonnement spatial sensibles, un critère essentiel pour tout déploiement hors laboratoire. Le projet s'inscrit dans une course mondiale à la robotique intelligente où Google DeepMind s'impose comme acteur central. La collaboration avec Boston Dynamics, notamment sur la lecture d'instruments, illustre la convergence entre intelligence artificielle de pointe et plateformes robotiques éprouvées. En ouvrant l'accès via son API, Google mise sur un écosystème de développeurs pour accélérer l'expérimentation et multiplier les cas d'usage, de la logistique à la chirurgie assistée. Cette stratégie d'ouverture contraste avec des approches plus fermées, et positionne Gemini Robotics comme une infrastructure sur laquelle d'autres peuvent construire. Les prochains mois diront si ce pari sur le raisonnement incarné suffit à distancer des concurrents comme Figure AI, 1X ou Tesla, qui misent eux aussi sur des robots capables de comprendre leur environnement plutôt que de simplement l'exécuter.

RobotiqueActu
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
4arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour