Aller au contenu principal
RobotiqueArs Technica AI3h

Des robots quadrupèdes lisent des jauges et thermomètres grâce à Google Gemini

1 source couvre ce sujet·Source originale ↗·

Les chiens robots de Boston Dynamics, comme le quadrupède Spot, sont désormais capables de lire avec précision des thermomètres analogiques et des manomètres lors de leurs rondes dans les usines et entrepôts. Cette avancée repose sur le nouveau modèle d'IA robotique de Google DeepMind, baptisé Gemini Robotics-ER 1.6, annoncé le 14 avril 2026. Ce modèle agit comme un "moteur de raisonnement de haut niveau pour robot", capable de planifier et d'exécuter des tâches complexes impliquant une compréhension fine de l'environnement physique. Il permet notamment de déchiffrer des instruments de mesure comprenant plusieurs aiguilles, des niveaux de liquide, des graduations et du texte, ainsi que d'effectuer des inspections visuelles via des hublots transparents donnant accès à l'intérieur de cuves et de tuyauteries.

Cette capacité de "raisonnement incarné" représente un saut qualitatif important pour l'automatisation industrielle. Jusqu'ici, lire un manomètre analogique ou interpréter un niveau dans un réservoir exigeait une intervention humaine ou des capteurs dédiés. Avec Gemini Robotics-ER 1.6, un robot comme Spot peut désormais effectuer des rondes d'inspection autonomes dans des environnements industriels complexes sans infrastructure supplémentaire, réduisant potentiellement les coûts de maintenance et les risques pour les opérateurs humains dans des zones dangereuses.

Ce développement s'inscrit dans la collaboration continue entre Google DeepMind et Boston Dynamics, entreprise détenue par le constructeur automobile coréen Hyundai Motor Group. Hyundai teste activement des robots bipèdes et quadrupèdes dans ses usines d'assemblage automobile, faisant de ces environnements un terrain d'expérimentation privilégié. La course à l'IA robotique s'intensifie entre les grands acteurs technologiques, et l'intégration de modèles de vision multimodaux puissants comme Gemini dans des robots physiques ouvre la voie à des inspecteurs autonomes capables d'opérer dans n'importe quelle installation industrielle existante, sans modification matérielle.

Impact France/UE

Les industriels européens pourraient adopter cette technologie pour automatiser les rondes d'inspection sans modifier leur infrastructure existante, mais aucune entreprise ou institution française/européenne n'est directement impliquée.

À lire aussi

1Le Big Data 

Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !

Le 12 avril 2026, les habitants d'un parking de Varsovie ont assisté à une scène inattendue : un robot humanoïde poursuivant un groupe de sangliers pour les repousser vers la forêt. Le robot en question s'appelle Edward, et il s'agit d'un Unitree G1, modèle conçu pour évoluer dans des environnements urbains complexes. Mesurant 1,32 mètre, équipé d'un sac à dos et capable de se déplacer sur différents types de terrains, Edward a avancé calmement vers les animaux, les suivant sur plusieurs mètres sans geste brusque ni contact direct, jusqu'à ce qu'ils quittent la zone. La vidéo de l'intervention a rapidement circulé sur les réseaux sociaux, cumulant des millions de vues en quelques heures sur TikTok, Instagram et X, où Edward dépasse déjà les 500 millions de vues au total. Cette opération illustre une approche radicalement différente de la gestion de la faune urbaine. Les sangliers représentent un problème récurrent dans plusieurs quartiers de Varsovie : ils fouillent les poubelles, effraient les passants et créent des nuisances durables. Les méthodes traditionnelles, fondées sur la chasse ou les pièges, divisent régulièrement l'opinion publique et engendrent des tensions. Le robot propose une troisième voie : éloigner les animaux sans violence, sans risque pour les agents municipaux, et sans confrontation directe. L'approche séduit car elle combine efficacité opérationnelle et acceptabilité sociale, deux critères que les villes cherchent de plus en plus à concilier dans la gestion de leurs espaces publics. Edward n'est pas un prototype improvisé. Le robot a suivi un entraînement spécifique en Chine fin 2025, et son logiciel pilote ses déplacements en temps réel selon les contraintes du terrain. À Varsovie, il est devenu une figure publique à part entière : il discute avec des passants, est apparu à la télévision et s'est rendu au Parlement polonais, incarnant une forme nouvelle de robot à la fois fonctionnel et influenceur. La Pologne s'impose ainsi comme un terrain d'expérimentation sérieux pour l'usage civil de la robotique humanoïde en milieu urbain. Reste une question ouverte que cette séquence virale pose avec acuité : à mesure que ces robots gagnent en autonomie et en visibilité, comment les sociétés vont-elles définir leur rôle légitime dans l'espace public, et jusqu'où peut aller leur déploiement sans encadrement réglementaire clair ?

UELa Pologne expérimente le déploiement civil de robots humanoïdes en milieu urbain, soulevant des questions concrètes sur l'encadrement réglementaire européen de la robotique autonome dans l'espace public, un enjeu directement couvert par l'AI Act.

RobotiqueOpinion
1 source
2AI News 

Les drones deviennent plus intelligents pour les grandes exploitations agricoles

DroneDash Technologies, basée à Singapour, et GEODNET ont annoncé la création d'une coentreprise baptisée GEODASH Aerosystems, dédiée au développement de drones de pulvérisation agricole destinés aux grandes exploitations industrielles. La technologie, proche du stade de production, vise à supprimer deux contraintes majeures des systèmes actuels : la nécessité de cartographier chaque champ avant chaque vol, et la reconstruction systématique des plans de vol lorsque les conditions au sol changent. Le drone combinera le système de vision par IA de DroneDash avec la technologie de correction de positionnement de GEODNET, pour atteindre une précision au centimètre. En vol, l'appareil est capable d'identifier les rangées de cultures, les arbres, le relief et les zones à traiter, d'ajuster son altitude et ses débits de pulvérisation en temps réel. Des déploiements pilotes ont été conduits tout au long de 2025 et début 2026 ; la commercialisation est prévue pour le troisième trimestre 2026. L'enjeu est considérable pour les grandes exploitations, notamment les plantations de palmiers à huile où les opérations de cartographie préalable mobilisent du temps et des équipes, limitant la surface couvrable par jour. Avec GEODASH Aerosystems, le drone n'a plus besoin de carte existante : il opère à l'intérieur de zones géo-délimitées en prenant ses propres décisions de trajectoire selon l'environnement perçu. Chaque vol alimente en outre le backend d'intelligence artificielle Smart Farming de DroneDash, générant des métriques sur la densité du couvert végétal, la santé des plantes, l'efficacité de la pulvérisation et les profils de terrain. Le drone devient ainsi une double plateforme : applicateur de traitement et capteur aérien permanent, capable d'informer les exploitants sur les besoins en fertilisation, en contrôle phytosanitaire ou en replantation. Les drones agricoles actuels sont pour la plupart des adaptations de modèles grand public, pensés pour des environnements structurés et prévisibles. Or, les plantations tropicales avec des cultures d'âges mixtes, l'érosion des sols ou la croissance végétale rendent les cartes statiques rapidement obsolètes. La frontière décisive en robotique intelligente est précisément là : la capacité à agir dans des environnements changeants, sans tout hard-coder. GEODASH Aerosystems cible en priorité les plantations de palmiers à huile en Asie du Sud-Est, les grandes cultures en rangs aux États-Unis et les vastes domaines en Amérique du Sud, trois marchés où la taille des exploitations rend prohibitif le temps de préparation des opérations traditionnelles. Le positionnement assumé de la société résume l'ambition : "L'agriculture n'a pas besoin de drones plus grands, elle a besoin de drones plus intelligents", selon Paul Yam, PDG de DroneDash.

RobotiqueActu
1 source
Google DeepMind publie Gemini Robotics-ER 1.6 : raisonnement incarné amélioré et lecture d'instruments pour l'IA physique
3MarkTechPost 

Google DeepMind publie Gemini Robotics-ER 1.6 : raisonnement incarné amélioré et lecture d'instruments pour l'IA physique

Google DeepMind a publié Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à servir de cerveau cognitif aux robots évoluant dans des environnements physiques réels. Ce modèle ne contrôle pas directement les membres d'un robot, c'est le rôle du modèle jumeau Gemini Robotics 1.5, dit VLA (vision-language-action), qui traduit les instructions en commandes motrices. Gemini Robotics-ER 1.6 joue plutôt le rôle du stratège : il analyse l'espace, planifie les tâches, détecte les succès et peut appeler des outils externes comme Google Search ou des fonctions définies par l'utilisateur. Par rapport à la version 1.5, la nouvelle itération améliore nettement les capacités de raisonnement spatial et physique, pointage précis au pixel près, comptage d'objets, raisonnement relationnel ("l'objet le plus petit", "déplacer X vers Y"), et introduit une fonctionnalité entièrement nouvelle : la lecture d'instruments analogiques. L'impact de ces améliorations est concret et mesurable. Dans les benchmarks internes, Gemini Robotics-ER 1.6 identifie correctement le nombre de marteaux, ciseaux, pinceaux, pinces et outils de jardin présents dans une scène, et refuse de pointer des objets absents de l'image, là où la version 1.5 hallucine une brouette inexistante et rate plusieurs objets. Cette fiabilité est critique : dans un pipeline robotique, une fausse détection d'objet provoque des erreurs en cascade, le robot tentant d'interagir avec du vide. La détection de succès multi-vues, savoir quand une tâche est réellement terminée en fusionnant plusieurs flux caméra simultanément, améliore également la capacité du système à décider entre relancer une tentative échouée ou passer à l'étape suivante. La lecture d'instruments, elle, permet pour la première fois à un robot de lire un cadran analogique, un thermomètre ou un manomètre sans avoir besoin que l'instrument soit numérique. Cette publication s'inscrit dans une course effrénée à l'IA physique, où Google DeepMind affronte des acteurs comme Figure AI, Physical Intelligence ou Boston Dynamics sur le terrain de la robotique généraliste. L'architecture duale stratège/exécuteur choisie par DeepMind tranche avec les approches bout-en-bout de certains concurrents, pari sur une meilleure modularité et une plus grande capacité à intégrer des outils tiers. La lecture d'instruments ouvre des perspectives industrielles immédiates : inspection d'équipements dans des usines ou des centrales, environnements où la numérisation complète des capteurs reste coûteuse. Gemini Robotics-ER 1.6 est disponible via Google AI Studio et l'API Gemini, et DeepMind a annoncé un programme d'accès anticipé pour les entreprises souhaitant l'intégrer dans leurs pipelines robotiques.

UELes capacités de lecture d'instruments analogiques et d'inspection visuelle ouvrent des débouchés immédiats pour les industriels européens (usines, centrales) souhaitant déployer des robots dans des environnements non numérisés.

RobotiqueOpinion
1 source
Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones
4Ars Technica AI 

Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones

L'Ukraine a franchi une étape symbolique dans l'utilisation des robots militaires sur le champ de bataille. Le président Volodymyr Zelensky a affirmé que des robots terrestres et des drones ukrainiens avaient, de manière autonome, neutralisé une position militaire russe et contraint des soldats ennemis à se rendre, sans intervention humaine directe. Cette déclaration s'accompagne d'une vidéo promotionnelle dans laquelle Zelensky précise que les robots militaires ukrainiens ont accompli plus de 22 000 missions au cours des trois derniers mois. Le ministère ukrainien de la Défense a par ailleurs annoncé une multiplication par trois des missions de véhicules terrestres non pilotés sur les cinq derniers mois, avec plus de 9 000 missions robotiques conduites en mars 2026 selon Scripps News. L'événement en question se serait produit dans l'oblast de Kharkiv, au nord-est de l'Ukraine, impliquant la 3e Brigade d'assaut séparée qui a recouru à des drones volants et à des robots terrestres "kamikazes" pour attaquer des positions russes fortifiées. Si ces faits sont confirmés, les affirmations de Zelensky n'ont pas encore été vérifiées de manière indépendante, ils marqueraient un tournant dans la guerre moderne. La capitulation de soldats face à un robot autonome, aussi symbolique soit-elle, illustre une nouvelle réalité opérationnelle : les machines peuvent désormais accomplir les tâches les plus meurtrières à la place des humains. Pour les armées du monde entier, ce précédent ouvre la voie à un usage accru des systèmes robotisés dans les missions de reconnaissance avancée, d'assaut de positions fortifiées ou de capture de prisonniers, des missions à très haut risque pour les soldats en chair et en os. La plateforme gouvernementale ukrainienne United24 a également relayé un épisode similaire impliquant la même brigade, confirmant que cette pratique commence à se systématiser. Ce développement s'inscrit dans une guerre déjà profondément transformée par les drones, qui ont redéfini la logique des affrontements depuis 2022. L'Ukraine, sous pression constante face à une armée russe numériquement supérieure, a investi massivement dans les technologies non pilotées pour compenser ses pertes humaines et réduire l'exposition de ses soldats. Des soldats russes isolés avaient déjà été filmés en train de se rendre à des drones ukrainiens, mais la reddition collective face à un robot terrestre représente une escalade inédite. À mesure que la robotique militaire progresse, la question qui se pose désormais à l'ensemble des états-majors mondiaux est celle de la place croissante des systèmes autonomes dans la conduite des guerres futures, et des règles d'engagement qui devront les encadrer.

UELe conflit ukrainien pousse les états-majors européens, dont la France, à accélérer leurs propres doctrines sur les systèmes d'armes autonomes, alors que l'UE débat encore du cadre réglementaire applicable aux IA militaires dans le prolongement de l'AI Act.

RobotiqueActu
1 source