Aller au contenu principal
Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul
RobotiqueLe Big Data1j

Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul

1 source couvre ce sujet·Source originale ↗·

Running Brains Robotics, une PME implantée à Mérignac en région bordelaise, s'impose progressivement sur le marché européen de la surveillance autonome avec ses robots patrouilleurs entièrement conçus en France. La société a développé deux modèles complémentaires : le GR100, déjà déployé sur plusieurs sites, et le GR200, conçu pour les environnements difficiles et le tout-terrain. Ces machines effectuent des rondes continues sur des sites sensibles, analysant portes, clôtures et mouvements suspects, lisant des plaques d'immatriculation, détectant des fuites et remontant les anomalies en temps réel vers un centre de supervision. Les robots alternent entre missions actives et recharge rapide, restant connectés en permanence même à l'arrêt. La société est déjà opérationnelle en France et en Italie, où elle a notamment décroché un déploiement au sein du groupe Leonardo, acteur majeur de l'aéronautique et de la défense européenne, pour surveiller des infrastructures sensibles.

Ce type de système redéfinit l'organisation des équipes de sécurité sur site. Les robots prennent en charge les tâches répétitives de contrôle et de ronde, libérant les opérateurs humains pour se concentrer sur les interventions à plus forte valeur ajoutée, c'est-à-dire l'analyse et la décision finale. Les machines ne remplacent pas les forces de sécurité et n'interviennent pas directement en cas d'infraction : elles collectent et transmettent les données, les humains agissent. Pour les sites industriels, les ports, les aéroports ou les installations critiques, l'intérêt est double : une couverture 24h/24 sans fatigue ni absence, et une réduction des coûts opérationnels sur les missions à faible valeur ajoutée. Les déploiements en conditions réelles chez Leonardo valident l'efficacité opérationnelle de l'approche, un signal fort pour convaincre d'autres grands groupes industriels.

Running Brains Robotics se distingue par une maîtrise intégrale de sa chaîne technologique, de la conception mécanique aux algorithmes de navigation et de détection, sans dépendance envers des fournisseurs extérieurs. Ce positionnement souverain prend une résonance particulière dans un contexte européen où la sécurité des infrastructures critiques est au coeur des préoccupations stratégiques. La robotique de surveillance est un marché en pleine expansion, avec des acteurs américains, asiatiques et israéliens déjà bien installés, et l'émergence d'une solution 100% française répond à des enjeux de souveraineté industrielle que les grandes entreprises et les gouvernements commencent à prendre en compte dans leurs appels d'offres. La montée en puissance annoncée d'ici 2028 suggère que la société compte accélérer son développement commercial en Europe, portée par des références industrielles crédibles et un positionnement technologique différenciant.

Impact France/UE

Une PME française propose une solution souveraine de surveillance autonome déjà déployée chez Leonardo pour protéger des infrastructures critiques européennes, répondant aux enjeux de souveraineté industrielle dans les appels d'offres publics et privés en France et en UE.

À lire aussi

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser
1Le Big Data 

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser

Google DeepMind a lancé le 14 avril 2026 Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à la robotique. Cette nouvelle version améliore significativement la compréhension visuelle et spatiale des robots, leur permettant de planifier et d'exécuter des tâches plus complexes avec une autonomie accrue. Concrètement, le modèle est capable d'identifier des points de préhension optimaux sur des objets variés, de traiter des informations provenant de plusieurs angles simultanément grâce à la compréhension multi-vues, et de détecter si une tâche a été accomplie avec succès. Il surpasse ses prédécesseurs directs, Gemini Robotics-ER 1.5 et Gemini 3.0 Flash, notamment sur la lecture des espaces tridimensionnels et l'interprétation des mouvements. Le modèle est disponible dès maintenant via l'API Gemini et Google AI Studio pour les développeurs souhaitant l'intégrer dans leurs projets. Cette avancée marque un tournant dans la manière dont les robots interagissent avec le monde physique. Jusqu'ici, les systèmes automatisés suivaient des instructions rigides, incapables de s'adapter à des environnements imprévus. Avec ER 1.6, les machines peuvent interpréter des jauges et des indicateurs industriels, cartographier des trajectoires en tenant compte des contraintes environnementales, et valider elles-mêmes les résultats de leurs actions. Ce niveau de raisonnement ouvre la voie à des déploiements dans des contextes industriels réels, où les situations ambiguës ou complexes sont la norme. Google insiste également sur les améliorations en matière de sécurité : les tests montrent une meilleure conformité dans des scénarios de raisonnement spatial sensibles, un critère essentiel pour tout déploiement hors laboratoire. Le projet s'inscrit dans une course mondiale à la robotique intelligente où Google DeepMind s'impose comme acteur central. La collaboration avec Boston Dynamics, notamment sur la lecture d'instruments, illustre la convergence entre intelligence artificielle de pointe et plateformes robotiques éprouvées. En ouvrant l'accès via son API, Google mise sur un écosystème de développeurs pour accélérer l'expérimentation et multiplier les cas d'usage, de la logistique à la chirurgie assistée. Cette stratégie d'ouverture contraste avec des approches plus fermées, et positionne Gemini Robotics comme une infrastructure sur laquelle d'autres peuvent construire. Les prochains mois diront si ce pari sur le raisonnement incarné suffit à distancer des concurrents comme Figure AI, 1X ou Tesla, qui misent eux aussi sur des robots capables de comprendre leur environnement plutôt que de simplement l'exécuter.

RobotiqueActu
1 source
Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota
2Le Big Data 

Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota

Toyota a dévoilé le 14 avril 2026 la septième génération de son robot basketteur CUE7, une machine capable de tirer au panier, dribbler et se déplacer avec une précision remarquable. Par rapport à son prédécesseur CUE6, ce robot a été considérablement allégé, passant de 120 kg à 74 kg, et adopte une structure à deux roues inversées qui améliore sa stabilité et son agilité. Techniquement, CUE7 repose sur une combinaison de vision artificielle, de planification de mouvement et d'un système hybride mêlant apprentissage par renforcement et contrôle classique : le robot analyse le panier, calcule la distance, ajuste sa posture et déclenche le tir avec une régularité quasi mécanique. En 2019 déjà, la version CUE3 avait enchaîné 2 020 lancers francs réussis d'affilée, une série arrêtée volontairement par les ingénieurs alors que la machine pouvait continuer. En 2024, CUE6 avait décroché un record Guinness avec un tir longue distance impressionnant. Au-delà de l'exploit sportif, CUE7 représente une étape concrète dans le développement de ce que Toyota appelle l'intelligence artificielle incarnée, des systèmes capables d'interagir physiquement avec leur environnement de façon autonome et adaptative. Le basket-ball n'est pas un choix anodin : ce sport impose des défis simultanés complexes, comme la détection de cible, le calcul de trajectoire, la coordination motrice et l'ajustement en temps réel, ce qui en fait un terrain d'expérimentation idéal pour des technologies destinées à des applications industrielles, médicales ou domestiques beaucoup plus larges. La capacité du robot à apprendre de ses erreurs et à affiner ses gestes par itération rapproche son fonctionnement de celui d'un athlète humain s'entraînant séance après séance. Le projet CUE est né à l'origine d'une initiative parallèle portée par des employés passionnés de Toyota, avant d'être intégré dans une démarche de recherche plus structurée. Depuis ses débuts sous forme de prototype LEGO, la série a progressé de génération en génération vers plus d'autonomie, de mobilité et de précision. CUE7 marque le saut le plus visible à ce jour, avec un robot capable non seulement de tirer mais aussi de se déplacer et de dribbler. Cette trajectoire s'inscrit dans une course plus large menée par les grands acteurs industriels, Toyota, Boston Dynamics, Figure, Tesla, pour doter les robots humanoïdes et semi-humanoïdes de capacités physiques comparables à celles de l'humain, ouvrant la voie à des usages concrets dans des environnements non structurés.

RobotiqueActu
1 source
Hyundai se lance dans la robotique et l'IA physique
3AI News 

Hyundai se lance dans la robotique et l'IA physique

Hyundai Motor Group a annoncé un pivot stratégique majeur vers la robotique et ce que le secteur appelle l'« IA physique », des systèmes d'intelligence artificielle intégrés à des machines capables d'agir et de s'adapter dans des environnements réels. Dans une interview accordée à Semafor, le président du groupe, Chung Eui-sun, a confirmé que ces technologies joueront un rôle central dans la prochaine phase de croissance du conglomérat coréen. Pour appuyer cette ambition, Hyundai prévoit d'investir 26 milliards de dollars aux États-Unis d'ici 2028, s'ajoutant aux quelque 20,5 milliards déjà engagés sur les quarante dernières années. Au cœur de ce plan : le déploiement de robots humanoïdes issus de Boston Dynamics, dont Hyundai a pris le contrôle en 2021, dans ses propres usines de fabrication. La production industrielle de ces robots est attendue vers 2028, avec un objectif de 30 000 unités par an d'ici 2030. Ce virage vers l'IA physique représente une transformation profonde du modèle opérationnel de Hyundai, qui vend chaque année plus de 7 millions de véhicules dans plus de 200 pays via 16 sites de production mondiaux. L'objectif n'est pas de substituer les robots aux humains, mais de leur confier les tâches répétitives ou physiquement exigeantes pendant que les opérateurs se concentrent sur la supervision et la coordination. Chung estime que cette réorganisation permettra d'améliorer l'efficacité et la qualité des produits face à des exigences clients en constante évolution. À terme, ces systèmes pourraient également s'étendre à la logistique et aux services de mobilité, même si les usines restent pour l'instant le principal terrain d'expérimentation. Hyundai n'évolue pas en isolation : la course à l'IA physique s'intensifie dans l'ensemble de l'industrie automobile et technologique, poussée par la convergence entre robotique avancée, données temps réel et modèles d'apprentissage automatique. Le groupe mise également sur l'hydrogène via sa marque HTWO, couvrant production, stockage et utilisation, qu'il présente comme complémentaire aux véhicules électriques, notamment pour alimenter les infrastructures d'IA et les centres de données dont les besoins énergétiques explosent. Ce double pari, robotique et énergie propre, reflète une lecture claire de la part de Chung : les mutations réglementaires et les nouvelles attentes des marchés régionaux imposent une refonte de la façon dont Hyundai produit et opère. Le constructeur, dont les marques Hyundai, Kia et Genesis forment encore le socle du chiffre d'affaires, entame une transition de long terme, du fabricant de véhicules vers un acteur de systèmes physiques intelligents.

UEHyundai, présent en Europe avec ses marques Kia et Genesis, pourrait déployer des robots humanoïdes Boston Dynamics dans ses sites de production mondiaux d'ici 2028, ce qui aura des répercussions sur la compétitivité industrielle automobile européenne.

RobotiqueOpinion
1 source
Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage
4Le Big Data 

Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage

Des chercheurs du Korea Advanced Institute of Science and Technology (KAIST) ont présenté DreamWaQ++, un système de contrôle pour robots quadrupèdes qui combine caméras, LiDAR et capteurs embarqués pour analyser le terrain en temps réel et adapter chaque pas avant tout contact avec le sol. Lors des tests, le robot a grimpé un escalier de 50 marches en 35 secondes, couvrant plus de 30 mètres à l'horizontale et 7 mètres de dénivelé. Il a également négocié des pentes à 35 degrés, bien au-delà de ce qu'il avait rencontré durant son entraînement, et franchi des obstacles plus hauts que lui tout en portant une charge supplémentaire, le tout en sollicitant moins ses moteurs. Le système repose sur un apprentissage par renforcement capable de fusionner plusieurs flux de données simultanément sans surcharge de calcul, et peut basculer d'un mode de détection à un autre en cas de défaillance d'un capteur. Ce qui change fondamentalement avec DreamWaQ++, c'est le passage d'une locomotion réactive à une locomotion anticipatoire. Les robots quadrupèdes antérieurs s'appuyaient exclusivement sur des capteurs proprioceptifs, codeurs articulaires, centrales inertielles, et ne détectaient un obstacle qu'au moment du contact physique. DreamWaQ++ perçoit l'environnement avant de l'atteindre, analyse la géométrie du sol et recalcule la trajectoire immédiatement, sans planificateur externe. Le robot choisit lui-même son chemin, s'arrête parfois quelques instants pour observer, puis repart : un comportement qui évoque directement celui d'un animal en milieu inconnu. Cette autonomie de décision réduit les risques de chute dans des contextes où une intervention humaine est difficile ou dangereuse. Les applications visées par l'équipe de KAIST couvrent l'inspection industrielle, l'agriculture, la foresterie et les interventions d'urgence en zones sinistrées, autant de secteurs où la mobilité en terrain non structuré est aujourd'hui un verrou technologique. La robotique quadrupède a connu une accélération notable ces dernières années, portée par des acteurs comme Boston Dynamics et ses concurrents chinois tels qu'Unitree, mais la capacité à généraliser au-delà des situations d'entraînement reste un défi central. DreamWaQ++ s'inscrit dans une tendance plus large qui consiste à intégrer la perception extéroceptive profonde dans la boucle de contrôle bas niveau, réduisant la dépendance à la cartographie préalable. L'équipe envisage d'étendre l'approche à d'autres morphologies de robots, bipèdes et à roues inclus, ce qui pourrait accélérer le déploiement de machines autonomes dans des environnements réels non balisés.

RobotiqueActu
1 source