Aller au contenu principal
RobotiqueArs Technica AI4h

Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones

1 source couvre ce sujet·Source originale ↗·
Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones
▶ Voir sur YouTube

L'Ukraine a franchi une étape symbolique dans l'utilisation des robots militaires sur le champ de bataille. Le président Volodymyr Zelensky a affirmé que des robots terrestres et des drones ukrainiens avaient, de manière autonome, neutralisé une position militaire russe et contraint des soldats ennemis à se rendre, sans intervention humaine directe. Cette déclaration s'accompagne d'une vidéo promotionnelle dans laquelle Zelensky précise que les robots militaires ukrainiens ont accompli plus de 22 000 missions au cours des trois derniers mois. Le ministère ukrainien de la Défense a par ailleurs annoncé une multiplication par trois des missions de véhicules terrestres non pilotés sur les cinq derniers mois, avec plus de 9 000 missions robotiques conduites en mars 2026 selon Scripps News. L'événement en question se serait produit dans l'oblast de Kharkiv, au nord-est de l'Ukraine, impliquant la 3e Brigade d'assaut séparée qui a recouru à des drones volants et à des robots terrestres "kamikazes" pour attaquer des positions russes fortifiées.

Si ces faits sont confirmés, les affirmations de Zelensky n'ont pas encore été vérifiées de manière indépendante, ils marqueraient un tournant dans la guerre moderne. La capitulation de soldats face à un robot autonome, aussi symbolique soit-elle, illustre une nouvelle réalité opérationnelle : les machines peuvent désormais accomplir les tâches les plus meurtrières à la place des humains. Pour les armées du monde entier, ce précédent ouvre la voie à un usage accru des systèmes robotisés dans les missions de reconnaissance avancée, d'assaut de positions fortifiées ou de capture de prisonniers, des missions à très haut risque pour les soldats en chair et en os. La plateforme gouvernementale ukrainienne United24 a également relayé un épisode similaire impliquant la même brigade, confirmant que cette pratique commence à se systématiser.

Ce développement s'inscrit dans une guerre déjà profondément transformée par les drones, qui ont redéfini la logique des affrontements depuis 2022. L'Ukraine, sous pression constante face à une armée russe numériquement supérieure, a investi massivement dans les technologies non pilotées pour compenser ses pertes humaines et réduire l'exposition de ses soldats. Des soldats russes isolés avaient déjà été filmés en train de se rendre à des drones ukrainiens, mais la reddition collective face à un robot terrestre représente une escalade inédite. À mesure que la robotique militaire progresse, la question qui se pose désormais à l'ensemble des états-majors mondiaux est celle de la place croissante des systèmes autonomes dans la conduite des guerres futures, et des règles d'engagement qui devront les encadrer.

Impact France/UE

Le conflit ukrainien pousse les états-majors européens, dont la France, à accélérer leurs propres doctrines sur les systèmes d'armes autonomes, alors que l'UE débat encore du cadre réglementaire applicable aux IA militaires dans le prolongement de l'AI Act.

À lire aussi

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser
1Le Big Data 

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser

Google DeepMind a lancé le 14 avril 2026 Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à la robotique. Cette nouvelle version améliore significativement la compréhension visuelle et spatiale des robots, leur permettant de planifier et d'exécuter des tâches plus complexes avec une autonomie accrue. Concrètement, le modèle est capable d'identifier des points de préhension optimaux sur des objets variés, de traiter des informations provenant de plusieurs angles simultanément grâce à la compréhension multi-vues, et de détecter si une tâche a été accomplie avec succès. Il surpasse ses prédécesseurs directs, Gemini Robotics-ER 1.5 et Gemini 3.0 Flash, notamment sur la lecture des espaces tridimensionnels et l'interprétation des mouvements. Le modèle est disponible dès maintenant via l'API Gemini et Google AI Studio pour les développeurs souhaitant l'intégrer dans leurs projets. Cette avancée marque un tournant dans la manière dont les robots interagissent avec le monde physique. Jusqu'ici, les systèmes automatisés suivaient des instructions rigides, incapables de s'adapter à des environnements imprévus. Avec ER 1.6, les machines peuvent interpréter des jauges et des indicateurs industriels, cartographier des trajectoires en tenant compte des contraintes environnementales, et valider elles-mêmes les résultats de leurs actions. Ce niveau de raisonnement ouvre la voie à des déploiements dans des contextes industriels réels, où les situations ambiguës ou complexes sont la norme. Google insiste également sur les améliorations en matière de sécurité : les tests montrent une meilleure conformité dans des scénarios de raisonnement spatial sensibles, un critère essentiel pour tout déploiement hors laboratoire. Le projet s'inscrit dans une course mondiale à la robotique intelligente où Google DeepMind s'impose comme acteur central. La collaboration avec Boston Dynamics, notamment sur la lecture d'instruments, illustre la convergence entre intelligence artificielle de pointe et plateformes robotiques éprouvées. En ouvrant l'accès via son API, Google mise sur un écosystème de développeurs pour accélérer l'expérimentation et multiplier les cas d'usage, de la logistique à la chirurgie assistée. Cette stratégie d'ouverture contraste avec des approches plus fermées, et positionne Gemini Robotics comme une infrastructure sur laquelle d'autres peuvent construire. Les prochains mois diront si ce pari sur le raisonnement incarné suffit à distancer des concurrents comme Figure AI, 1X ou Tesla, qui misent eux aussi sur des robots capables de comprendre leur environnement plutôt que de simplement l'exécuter.

RobotiqueActu
1 source
Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota
2Le Big Data 

Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota

Toyota a dévoilé le 14 avril 2026 la septième génération de son robot basketteur CUE7, une machine capable de tirer au panier, dribbler et se déplacer avec une précision remarquable. Par rapport à son prédécesseur CUE6, ce robot a été considérablement allégé, passant de 120 kg à 74 kg, et adopte une structure à deux roues inversées qui améliore sa stabilité et son agilité. Techniquement, CUE7 repose sur une combinaison de vision artificielle, de planification de mouvement et d'un système hybride mêlant apprentissage par renforcement et contrôle classique : le robot analyse le panier, calcule la distance, ajuste sa posture et déclenche le tir avec une régularité quasi mécanique. En 2019 déjà, la version CUE3 avait enchaîné 2 020 lancers francs réussis d'affilée, une série arrêtée volontairement par les ingénieurs alors que la machine pouvait continuer. En 2024, CUE6 avait décroché un record Guinness avec un tir longue distance impressionnant. Au-delà de l'exploit sportif, CUE7 représente une étape concrète dans le développement de ce que Toyota appelle l'intelligence artificielle incarnée, des systèmes capables d'interagir physiquement avec leur environnement de façon autonome et adaptative. Le basket-ball n'est pas un choix anodin : ce sport impose des défis simultanés complexes, comme la détection de cible, le calcul de trajectoire, la coordination motrice et l'ajustement en temps réel, ce qui en fait un terrain d'expérimentation idéal pour des technologies destinées à des applications industrielles, médicales ou domestiques beaucoup plus larges. La capacité du robot à apprendre de ses erreurs et à affiner ses gestes par itération rapproche son fonctionnement de celui d'un athlète humain s'entraînant séance après séance. Le projet CUE est né à l'origine d'une initiative parallèle portée par des employés passionnés de Toyota, avant d'être intégré dans une démarche de recherche plus structurée. Depuis ses débuts sous forme de prototype LEGO, la série a progressé de génération en génération vers plus d'autonomie, de mobilité et de précision. CUE7 marque le saut le plus visible à ce jour, avec un robot capable non seulement de tirer mais aussi de se déplacer et de dribbler. Cette trajectoire s'inscrit dans une course plus large menée par les grands acteurs industriels, Toyota, Boston Dynamics, Figure, Tesla, pour doter les robots humanoïdes et semi-humanoïdes de capacités physiques comparables à celles de l'humain, ouvrant la voie à des usages concrets dans des environnements non structurés.

RobotiqueActu
1 source
Hyundai se lance dans la robotique et l'IA physique
3AI News 

Hyundai se lance dans la robotique et l'IA physique

Hyundai Motor Group a annoncé un pivot stratégique majeur vers la robotique et ce que le secteur appelle l'« IA physique », des systèmes d'intelligence artificielle intégrés à des machines capables d'agir et de s'adapter dans des environnements réels. Dans une interview accordée à Semafor, le président du groupe, Chung Eui-sun, a confirmé que ces technologies joueront un rôle central dans la prochaine phase de croissance du conglomérat coréen. Pour appuyer cette ambition, Hyundai prévoit d'investir 26 milliards de dollars aux États-Unis d'ici 2028, s'ajoutant aux quelque 20,5 milliards déjà engagés sur les quarante dernières années. Au cœur de ce plan : le déploiement de robots humanoïdes issus de Boston Dynamics, dont Hyundai a pris le contrôle en 2021, dans ses propres usines de fabrication. La production industrielle de ces robots est attendue vers 2028, avec un objectif de 30 000 unités par an d'ici 2030. Ce virage vers l'IA physique représente une transformation profonde du modèle opérationnel de Hyundai, qui vend chaque année plus de 7 millions de véhicules dans plus de 200 pays via 16 sites de production mondiaux. L'objectif n'est pas de substituer les robots aux humains, mais de leur confier les tâches répétitives ou physiquement exigeantes pendant que les opérateurs se concentrent sur la supervision et la coordination. Chung estime que cette réorganisation permettra d'améliorer l'efficacité et la qualité des produits face à des exigences clients en constante évolution. À terme, ces systèmes pourraient également s'étendre à la logistique et aux services de mobilité, même si les usines restent pour l'instant le principal terrain d'expérimentation. Hyundai n'évolue pas en isolation : la course à l'IA physique s'intensifie dans l'ensemble de l'industrie automobile et technologique, poussée par la convergence entre robotique avancée, données temps réel et modèles d'apprentissage automatique. Le groupe mise également sur l'hydrogène via sa marque HTWO, couvrant production, stockage et utilisation, qu'il présente comme complémentaire aux véhicules électriques, notamment pour alimenter les infrastructures d'IA et les centres de données dont les besoins énergétiques explosent. Ce double pari, robotique et énergie propre, reflète une lecture claire de la part de Chung : les mutations réglementaires et les nouvelles attentes des marchés régionaux imposent une refonte de la façon dont Hyundai produit et opère. Le constructeur, dont les marques Hyundai, Kia et Genesis forment encore le socle du chiffre d'affaires, entame une transition de long terme, du fabricant de véhicules vers un acteur de systèmes physiques intelligents.

UEHyundai, présent en Europe avec ses marques Kia et Genesis, pourrait déployer des robots humanoïdes Boston Dynamics dans ses sites de production mondiaux d'ici 2028, ce qui aura des répercussions sur la compétitivité industrielle automobile européenne.

RobotiqueOpinion
1 source
Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage
4Le Big Data 

Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage

Des chercheurs du Korea Advanced Institute of Science and Technology (KAIST) ont présenté DreamWaQ++, un système de contrôle pour robots quadrupèdes qui combine caméras, LiDAR et capteurs embarqués pour analyser le terrain en temps réel et adapter chaque pas avant tout contact avec le sol. Lors des tests, le robot a grimpé un escalier de 50 marches en 35 secondes, couvrant plus de 30 mètres à l'horizontale et 7 mètres de dénivelé. Il a également négocié des pentes à 35 degrés, bien au-delà de ce qu'il avait rencontré durant son entraînement, et franchi des obstacles plus hauts que lui tout en portant une charge supplémentaire, le tout en sollicitant moins ses moteurs. Le système repose sur un apprentissage par renforcement capable de fusionner plusieurs flux de données simultanément sans surcharge de calcul, et peut basculer d'un mode de détection à un autre en cas de défaillance d'un capteur. Ce qui change fondamentalement avec DreamWaQ++, c'est le passage d'une locomotion réactive à une locomotion anticipatoire. Les robots quadrupèdes antérieurs s'appuyaient exclusivement sur des capteurs proprioceptifs, codeurs articulaires, centrales inertielles, et ne détectaient un obstacle qu'au moment du contact physique. DreamWaQ++ perçoit l'environnement avant de l'atteindre, analyse la géométrie du sol et recalcule la trajectoire immédiatement, sans planificateur externe. Le robot choisit lui-même son chemin, s'arrête parfois quelques instants pour observer, puis repart : un comportement qui évoque directement celui d'un animal en milieu inconnu. Cette autonomie de décision réduit les risques de chute dans des contextes où une intervention humaine est difficile ou dangereuse. Les applications visées par l'équipe de KAIST couvrent l'inspection industrielle, l'agriculture, la foresterie et les interventions d'urgence en zones sinistrées, autant de secteurs où la mobilité en terrain non structuré est aujourd'hui un verrou technologique. La robotique quadrupède a connu une accélération notable ces dernières années, portée par des acteurs comme Boston Dynamics et ses concurrents chinois tels qu'Unitree, mais la capacité à généraliser au-delà des situations d'entraînement reste un défi central. DreamWaQ++ s'inscrit dans une tendance plus large qui consiste à intégrer la perception extéroceptive profonde dans la boucle de contrôle bas niveau, réduisant la dépendance à la cartographie préalable. L'équipe envisage d'étendre l'approche à d'autres morphologies de robots, bipèdes et à roues inclus, ce qui pourrait accélérer le déploiement de machines autonomes dans des environnements réels non balisés.

RobotiqueActu
1 source