Aller au contenu principal
ZD Tech : Niantic utilise les 30 milliards d'images de Pokémon Go pour créer un système de navigation pour les robots
RobotiqueZDNET FR6sem

ZD Tech : Niantic utilise les 30 milliards d'images de Pokémon Go pour créer un système de navigation pour les robots

Résumé IASource uniqueImpact UE
Source originale ↗·

Niantic, le studio fondateur de Pokémon Go, a mis au point un système de navigation robotique en s'appuyant sur les 30 milliards d'images collectées par les joueurs à travers le monde depuis le lancement du jeu en 2016. Ce qui ressemblait à un simple jeu de réalité augmentée se révèle être, en parallèle, l'un des plus grands projets de cartographie visuelle du monde réel jamais réalisés à échelle industrielle.

L'enjeu est considérable pour le secteur de la robotique et de l'intelligence artificielle. L'un des défis majeurs pour les robots autonomes reste la capacité à se localiser et à naviguer dans des environnements non structurés — rues, bâtiments publics, espaces intérieurs. Disposer d'une base de données visuelles aussi massive, géolocalisée et diversifiée géographiquement, représente un avantage compétitif rare que peu d'acteurs peuvent revendiquer.

Niantic a exploité ces données pour entraîner un modèle capable d'identifier des repères visuels dans des contextes variés et de guider des robots dans des espaces réels. Les 30 milliards d'images, capturées par des millions de joueurs dans des dizaines de pays, offrent une couverture géographique et une diversité de conditions visuelles — éclairage, saisons, angles — qu'aucun programme de collecte traditionnel n'aurait pu atteindre à ce coût.

Cette révélation relance le débat sur la double utilisation des données issues des jeux de réalité augmentée. Les joueurs, en chassant des créatures virtuelles, ont involontairement alimenté une infrastructure de données au service de la robotique et de l'IA spatiale — soulevant des questions légitimes sur la transparence des conditions d'utilisation et le consentement éclairé des utilisateurs.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
1arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source
Les images de Pokémon Go servent désormais à guider des robots-livreurs de pizza
2Numerama 

Les images de Pokémon Go servent désormais à guider des robots-livreurs de pizza

Niantic Spatial utilise les images collectées massivement via Pokémon Go pour développer une technologie de positionnement visuel urbain. En partenariat avec Coco Robotics, cette technologie vise à améliorer la navigation des robots-livreurs de pizza en ville.

RobotiqueActu
1 source
Combler le fossé intérieur-extérieur : télémétrie multi-technologie pour la navigation de robots
3arXiv cs.RO 

Combler le fossé intérieur-extérieur : télémétrie multi-technologie pour la navigation de robots

Des chercheurs ont publié une étude préliminaire sur le positionnement des robots mobiles en transition entre espaces extérieurs et intérieurs, s'appuyant sur le jeu de données HYMN (pour "Hybrid Measurement Navigation"). Ce dataset compile des mesures brutes et synchronisées provenant de quatre technologies de localisation distinctes : le GNSS (GPS et systèmes satellites), l'Ultra-Wideband (UWB), le WiFi Fine Time Measurement (FTM) et le Bluetooth Low Energy (BLE). Toutes ces données sont confrontées à une vérité terrain précise au millimètre, collectées dans un environnement industriel réel. L'article, déposé sur arXiv sous la référence 2504.25541, est signé par une équipe qui rend le dataset librement accessible à la communauté. Le problème central est bien connu dans la robotique mobile : le GNSS fonctionne bien en extérieur mais devient inutilisable dès que le robot passe sous un toit, tandis que les technologies radio terrestres comme l'UWB ou le WiFi FTM opèrent efficacement en intérieur mais perdent leurs ancres de référence dès qu'on sort du bâtiment. Le point de transition, la porte, le couloir de chargement, le seuil d'entrepôt, est précisément la zone où les deux classes de technologies se dégradent simultanément. Les auteurs montrent que leurs comportements d'erreur sont complémentaires, ce qui ouvre la voie à une fusion au niveau des mesures brutes plutôt qu'au niveau des positions estimées, une approche bien plus robuste théoriquement mais quasi inexploitée jusqu'ici. Ce travail s'inscrit dans un contexte d'essor des robots logistiques et industriels qui doivent naviguer de façon autonome entre quais de chargement, cours extérieures et entrepôts, sans interruption de service ni recalibration manuelle. Les grandes plateformes d'automatisation d'entrepôts, qu'il s'agisse de solutions déployées par Amazon Robotics, Locus Robotics ou leurs concurrents européens, se heurtent toutes à ce problème de continuité de positionnement. En mettant le dataset HYMN à disposition, les auteurs visent à permettre à d'autres équipes de développer et comparer des algorithmes de fusion multi-technologies, un chantier encore largement ouvert malgré son importance opérationnelle croissante.

UELes entreprises européennes d'automatisation logistique peuvent exploiter le dataset HYMN (librement accessible) pour développer des algorithmes de fusion multi-technologies et améliorer la continuité de navigation de leurs robots en transition intérieur-extérieur, un verrou opérationnel clé pour la compétitivité industrielle européenne.

RobotiqueOpinion
1 source
L'apprentissage par démonstration avec détection d'échecs pour la navigation sécurisée des robots
4arXiv cs.RO 

L'apprentissage par démonstration avec détection d'échecs pour la navigation sécurisée des robots

Des chercheurs ont publié un article de recherche présentant un nouveau cadre d'apprentissage pour la navigation robotique, intitulé "Learning from Demonstration with Failure Awareness for Safe Robot Navigation" (arXiv:2604.23360). Leur approche s'attaque à un problème fondamental des systèmes d'apprentissage par démonstration : les robots apprennent principalement à partir de comportements réussis, ce qui les rend vulnérables dès qu'ils rencontrent des situations inédites ou dangereuses. Pour y remédier, l'équipe propose un cadre qui exploite explicitement les expériences d'échec, comme les collisions, jusqu'ici largement ignorées car elles n'offrent pas de comportement directement imitable. Le coeur de l'innovation réside dans une séparation stricte des rôles des deux types de données. Les expériences d'échec servent exclusivement à calibrer l'estimation de la valeur dans les zones à risque, signalant au robot les régions à éviter, tandis que l'apprentissage de la politique de navigation reste cantonné aux démonstrations réussies. Cette dissociation permet d'intégrer les données d'échec sans dégrader les performances globales, un écueil habituel des approches naïves qui mélangent les deux. Le tout est implémenté dans un cadre d'apprentissage par renforcement hors ligne, ce qui signifie que le robot apprend à partir d'un jeu de données fixe, sans nécessiter d'interactions supplémentaires avec l'environnement pendant l'entraînement. Les évaluations menées à la fois en simulation et en environnements réels montrent une réduction significative des taux de collision, tout en maintenant un taux de succès des tâches équivalent, avec une bonne généralisation sur différentes plateformes robotiques. Cette recherche s'inscrit dans un effort plus large pour rendre les robots autonomes fiables dans des contextes ouverts et imprévisibles, un enjeu critique pour leur déploiement dans des entrepôts logistiques, des hôpitaux ou des espaces publics. L'apprentissage par démonstration reste l'une des approches les plus pratiques pour programmer des robots sans expertise en RL, mais sa fragilité face aux situations hors distribution freine son adoption industrielle. En valorisant les données d'échec autrement que comme du bruit à écarter, ce travail ouvre une voie prometteuse pour construire des politiques de navigation plus robustes, sans coût de collecte de données supplémentaire.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour