Aller au contenu principal
RobotiqueAI News5h

Les drones deviennent plus intelligents pour les grandes exploitations agricoles

1 source couvre ce sujet·Source originale ↗·

DroneDash Technologies, basée à Singapour, et GEODNET ont annoncé la création d'une coentreprise baptisée GEODASH Aerosystems, dédiée au développement de drones de pulvérisation agricole destinés aux grandes exploitations industrielles. La technologie, proche du stade de production, vise à supprimer deux contraintes majeures des systèmes actuels : la nécessité de cartographier chaque champ avant chaque vol, et la reconstruction systématique des plans de vol lorsque les conditions au sol changent. Le drone combinera le système de vision par IA de DroneDash avec la technologie de correction de positionnement de GEODNET, pour atteindre une précision au centimètre. En vol, l'appareil est capable d'identifier les rangées de cultures, les arbres, le relief et les zones à traiter, d'ajuster son altitude et ses débits de pulvérisation en temps réel. Des déploiements pilotes ont été conduits tout au long de 2025 et début 2026 ; la commercialisation est prévue pour le troisième trimestre 2026.

L'enjeu est considérable pour les grandes exploitations, notamment les plantations de palmiers à huile où les opérations de cartographie préalable mobilisent du temps et des équipes, limitant la surface couvrable par jour. Avec GEODASH Aerosystems, le drone n'a plus besoin de carte existante : il opère à l'intérieur de zones géo-délimitées en prenant ses propres décisions de trajectoire selon l'environnement perçu. Chaque vol alimente en outre le backend d'intelligence artificielle Smart Farming de DroneDash, générant des métriques sur la densité du couvert végétal, la santé des plantes, l'efficacité de la pulvérisation et les profils de terrain. Le drone devient ainsi une double plateforme : applicateur de traitement et capteur aérien permanent, capable d'informer les exploitants sur les besoins en fertilisation, en contrôle phytosanitaire ou en replantation.

Les drones agricoles actuels sont pour la plupart des adaptations de modèles grand public, pensés pour des environnements structurés et prévisibles. Or, les plantations tropicales avec des cultures d'âges mixtes, l'érosion des sols ou la croissance végétale rendent les cartes statiques rapidement obsolètes. La frontière décisive en robotique intelligente est précisément là : la capacité à agir dans des environnements changeants, sans tout hard-coder. GEODASH Aerosystems cible en priorité les plantations de palmiers à huile en Asie du Sud-Est, les grandes cultures en rangs aux États-Unis et les vastes domaines en Amérique du Sud, trois marchés où la taille des exploitations rend prohibitif le temps de préparation des opérations traditionnelles. Le positionnement assumé de la société résume l'ambition : "L'agriculture n'a pas besoin de drones plus grands, elle a besoin de drones plus intelligents", selon Paul Yam, PDG de DroneDash.

À lire aussi

1Le Big Data 

Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !

Le 12 avril 2026, les habitants d'un parking de Varsovie ont assisté à une scène inattendue : un robot humanoïde poursuivant un groupe de sangliers pour les repousser vers la forêt. Le robot en question s'appelle Edward, et il s'agit d'un Unitree G1, modèle conçu pour évoluer dans des environnements urbains complexes. Mesurant 1,32 mètre, équipé d'un sac à dos et capable de se déplacer sur différents types de terrains, Edward a avancé calmement vers les animaux, les suivant sur plusieurs mètres sans geste brusque ni contact direct, jusqu'à ce qu'ils quittent la zone. La vidéo de l'intervention a rapidement circulé sur les réseaux sociaux, cumulant des millions de vues en quelques heures sur TikTok, Instagram et X, où Edward dépasse déjà les 500 millions de vues au total. Cette opération illustre une approche radicalement différente de la gestion de la faune urbaine. Les sangliers représentent un problème récurrent dans plusieurs quartiers de Varsovie : ils fouillent les poubelles, effraient les passants et créent des nuisances durables. Les méthodes traditionnelles, fondées sur la chasse ou les pièges, divisent régulièrement l'opinion publique et engendrent des tensions. Le robot propose une troisième voie : éloigner les animaux sans violence, sans risque pour les agents municipaux, et sans confrontation directe. L'approche séduit car elle combine efficacité opérationnelle et acceptabilité sociale, deux critères que les villes cherchent de plus en plus à concilier dans la gestion de leurs espaces publics. Edward n'est pas un prototype improvisé. Le robot a suivi un entraînement spécifique en Chine fin 2025, et son logiciel pilote ses déplacements en temps réel selon les contraintes du terrain. À Varsovie, il est devenu une figure publique à part entière : il discute avec des passants, est apparu à la télévision et s'est rendu au Parlement polonais, incarnant une forme nouvelle de robot à la fois fonctionnel et influenceur. La Pologne s'impose ainsi comme un terrain d'expérimentation sérieux pour l'usage civil de la robotique humanoïde en milieu urbain. Reste une question ouverte que cette séquence virale pose avec acuité : à mesure que ces robots gagnent en autonomie et en visibilité, comment les sociétés vont-elles définir leur rôle légitime dans l'espace public, et jusqu'où peut aller leur déploiement sans encadrement réglementaire clair ?

UELa Pologne expérimente le déploiement civil de robots humanoïdes en milieu urbain, soulevant des questions concrètes sur l'encadrement réglementaire européen de la robotique autonome dans l'espace public, un enjeu directement couvert par l'AI Act.

RobotiqueOpinion
1 source
Google DeepMind publie Gemini Robotics-ER 1.6 : raisonnement incarné amélioré et lecture d'instruments pour l'IA physique
2MarkTechPost 

Google DeepMind publie Gemini Robotics-ER 1.6 : raisonnement incarné amélioré et lecture d'instruments pour l'IA physique

Google DeepMind a publié Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à servir de cerveau cognitif aux robots évoluant dans des environnements physiques réels. Ce modèle ne contrôle pas directement les membres d'un robot, c'est le rôle du modèle jumeau Gemini Robotics 1.5, dit VLA (vision-language-action), qui traduit les instructions en commandes motrices. Gemini Robotics-ER 1.6 joue plutôt le rôle du stratège : il analyse l'espace, planifie les tâches, détecte les succès et peut appeler des outils externes comme Google Search ou des fonctions définies par l'utilisateur. Par rapport à la version 1.5, la nouvelle itération améliore nettement les capacités de raisonnement spatial et physique, pointage précis au pixel près, comptage d'objets, raisonnement relationnel ("l'objet le plus petit", "déplacer X vers Y"), et introduit une fonctionnalité entièrement nouvelle : la lecture d'instruments analogiques. L'impact de ces améliorations est concret et mesurable. Dans les benchmarks internes, Gemini Robotics-ER 1.6 identifie correctement le nombre de marteaux, ciseaux, pinceaux, pinces et outils de jardin présents dans une scène, et refuse de pointer des objets absents de l'image, là où la version 1.5 hallucine une brouette inexistante et rate plusieurs objets. Cette fiabilité est critique : dans un pipeline robotique, une fausse détection d'objet provoque des erreurs en cascade, le robot tentant d'interagir avec du vide. La détection de succès multi-vues, savoir quand une tâche est réellement terminée en fusionnant plusieurs flux caméra simultanément, améliore également la capacité du système à décider entre relancer une tentative échouée ou passer à l'étape suivante. La lecture d'instruments, elle, permet pour la première fois à un robot de lire un cadran analogique, un thermomètre ou un manomètre sans avoir besoin que l'instrument soit numérique. Cette publication s'inscrit dans une course effrénée à l'IA physique, où Google DeepMind affronte des acteurs comme Figure AI, Physical Intelligence ou Boston Dynamics sur le terrain de la robotique généraliste. L'architecture duale stratège/exécuteur choisie par DeepMind tranche avec les approches bout-en-bout de certains concurrents, pari sur une meilleure modularité et une plus grande capacité à intégrer des outils tiers. La lecture d'instruments ouvre des perspectives industrielles immédiates : inspection d'équipements dans des usines ou des centrales, environnements où la numérisation complète des capteurs reste coûteuse. Gemini Robotics-ER 1.6 est disponible via Google AI Studio et l'API Gemini, et DeepMind a annoncé un programme d'accès anticipé pour les entreprises souhaitant l'intégrer dans leurs pipelines robotiques.

UELes capacités de lecture d'instruments analogiques et d'inspection visuelle ouvrent des débouchés immédiats pour les industriels européens (usines, centrales) souhaitant déployer des robots dans des environnements non numérisés.

RobotiqueOpinion
1 source
Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones
3Ars Technica AI 

Les robots militaires ukrainiens se multiplient pour limiter les risques humains liés aux drones

L'Ukraine a franchi une étape symbolique dans l'utilisation des robots militaires sur le champ de bataille. Le président Volodymyr Zelensky a affirmé que des robots terrestres et des drones ukrainiens avaient, de manière autonome, neutralisé une position militaire russe et contraint des soldats ennemis à se rendre, sans intervention humaine directe. Cette déclaration s'accompagne d'une vidéo promotionnelle dans laquelle Zelensky précise que les robots militaires ukrainiens ont accompli plus de 22 000 missions au cours des trois derniers mois. Le ministère ukrainien de la Défense a par ailleurs annoncé une multiplication par trois des missions de véhicules terrestres non pilotés sur les cinq derniers mois, avec plus de 9 000 missions robotiques conduites en mars 2026 selon Scripps News. L'événement en question se serait produit dans l'oblast de Kharkiv, au nord-est de l'Ukraine, impliquant la 3e Brigade d'assaut séparée qui a recouru à des drones volants et à des robots terrestres "kamikazes" pour attaquer des positions russes fortifiées. Si ces faits sont confirmés, les affirmations de Zelensky n'ont pas encore été vérifiées de manière indépendante, ils marqueraient un tournant dans la guerre moderne. La capitulation de soldats face à un robot autonome, aussi symbolique soit-elle, illustre une nouvelle réalité opérationnelle : les machines peuvent désormais accomplir les tâches les plus meurtrières à la place des humains. Pour les armées du monde entier, ce précédent ouvre la voie à un usage accru des systèmes robotisés dans les missions de reconnaissance avancée, d'assaut de positions fortifiées ou de capture de prisonniers, des missions à très haut risque pour les soldats en chair et en os. La plateforme gouvernementale ukrainienne United24 a également relayé un épisode similaire impliquant la même brigade, confirmant que cette pratique commence à se systématiser. Ce développement s'inscrit dans une guerre déjà profondément transformée par les drones, qui ont redéfini la logique des affrontements depuis 2022. L'Ukraine, sous pression constante face à une armée russe numériquement supérieure, a investi massivement dans les technologies non pilotées pour compenser ses pertes humaines et réduire l'exposition de ses soldats. Des soldats russes isolés avaient déjà été filmés en train de se rendre à des drones ukrainiens, mais la reddition collective face à un robot terrestre représente une escalade inédite. À mesure que la robotique militaire progresse, la question qui se pose désormais à l'ensemble des états-majors mondiaux est celle de la place croissante des systèmes autonomes dans la conduite des guerres futures, et des règles d'engagement qui devront les encadrer.

UELe conflit ukrainien pousse les états-majors européens, dont la France, à accélérer leurs propres doctrines sur les systèmes d'armes autonomes, alors que l'UE débat encore du cadre réglementaire applicable aux IA militaires dans le prolongement de l'AI Act.

RobotiqueActu
1 source
Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser
4Le Big Data 

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser

Google DeepMind a lancé le 14 avril 2026 Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à la robotique. Cette nouvelle version améliore significativement la compréhension visuelle et spatiale des robots, leur permettant de planifier et d'exécuter des tâches plus complexes avec une autonomie accrue. Concrètement, le modèle est capable d'identifier des points de préhension optimaux sur des objets variés, de traiter des informations provenant de plusieurs angles simultanément grâce à la compréhension multi-vues, et de détecter si une tâche a été accomplie avec succès. Il surpasse ses prédécesseurs directs, Gemini Robotics-ER 1.5 et Gemini 3.0 Flash, notamment sur la lecture des espaces tridimensionnels et l'interprétation des mouvements. Le modèle est disponible dès maintenant via l'API Gemini et Google AI Studio pour les développeurs souhaitant l'intégrer dans leurs projets. Cette avancée marque un tournant dans la manière dont les robots interagissent avec le monde physique. Jusqu'ici, les systèmes automatisés suivaient des instructions rigides, incapables de s'adapter à des environnements imprévus. Avec ER 1.6, les machines peuvent interpréter des jauges et des indicateurs industriels, cartographier des trajectoires en tenant compte des contraintes environnementales, et valider elles-mêmes les résultats de leurs actions. Ce niveau de raisonnement ouvre la voie à des déploiements dans des contextes industriels réels, où les situations ambiguës ou complexes sont la norme. Google insiste également sur les améliorations en matière de sécurité : les tests montrent une meilleure conformité dans des scénarios de raisonnement spatial sensibles, un critère essentiel pour tout déploiement hors laboratoire. Le projet s'inscrit dans une course mondiale à la robotique intelligente où Google DeepMind s'impose comme acteur central. La collaboration avec Boston Dynamics, notamment sur la lecture d'instruments, illustre la convergence entre intelligence artificielle de pointe et plateformes robotiques éprouvées. En ouvrant l'accès via son API, Google mise sur un écosystème de développeurs pour accélérer l'expérimentation et multiplier les cas d'usage, de la logistique à la chirurgie assistée. Cette stratégie d'ouverture contraste avec des approches plus fermées, et positionne Gemini Robotics comme une infrastructure sur laquelle d'autres peuvent construire. Les prochains mois diront si ce pari sur le raisonnement incarné suffit à distancer des concurrents comme Figure AI, 1X ou Tesla, qui misent eux aussi sur des robots capables de comprendre leur environnement plutôt que de simplement l'exécuter.

RobotiqueActu
1 source