Aller au contenu principal
Un panneau solaire par minute : ce robot divise par deux le coût et le temps d’installation
Robotique01net6sem

Un panneau solaire par minute : ce robot divise par deux le coût et le temps d’installation

Résumé IASource uniqueImpact UE
Source originale ↗·

Maximo, un robot de construction piloté par intelligence artificielle, a établi un nouveau record sur un chantier solaire de grande envergure en Californie : une installation complète de panneau solaire par minute, soit une cadence deux fois supérieure à celle d'une équipe humaine. Développé pour automatiser les tâches répétitives et physiquement exigeantes du déploiement photovoltaïque, le robot réduit simultanément les coûts d'installation de moitié, selon les données communiquées par ses concepteurs.

Cette performance change concrètement l'équation économique du solaire à grande échelle. Le coût de la main-d'œuvre représente une part significative du prix total d'une installation solaire — souvent 20 à 30 % — et constitue l'un des principaux freins à l'accélération des déploiements. Un robot capable de travailler sans interruption, sans risque de blessure et à cadence constante ouvre la voie à des fermes solaires construites bien plus rapidement et à moindre coût, accélérant potentiellement les objectifs de transition énergétique des États et des entreprises.

L'automatisation des chantiers de construction d'énergie renouvelable s'inscrit dans une tendance plus large : face à la pénurie de main-d'œuvre qualifiée dans le BTP et à l'urgence climatique, plusieurs startups et groupes industriels investissent massivement dans la robotique de terrain. Maximo n'est pas seul dans cette course — des acteurs comme Renovagen ou des divisions robotiques de grands groupes énergétiques explorent des voies similaires. La question qui se pose désormais est celle du déploiement à l'échelle : combien de chantiers, dans quels délais, et avec quel impact sur les emplois du secteur.

Impact France/UE

Les objectifs européens de déploiement solaire pourraient bénéficier de ce type d'automatisation face aux pénuries de main-d'œuvre dans le BTP, mais aucune adoption en France ou en UE n'est mentionnée.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active
1arXiv cs.RO 

Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active

Des chercheurs de l'université de Gand ont publié sur arXiv un système de navigation robotique autonome baptisé AIMAPP (Active Inference MAPping and Planning), capable d'explorer des environnements inconnus sans carte préalable ni phase d'entraînement. Le robot construit en temps réel une carte topologique sparse, apprend dynamiquement les transitions d'états et planifie ses actions en minimisant ce que les auteurs appellent l'Énergie Libre Attendue (Expected Free Energy), un principe emprunté à la théorie de l'inférence active. Le système est compatible avec ROS, indépendant du type de capteurs utilisés et fonctionne en mode entièrement auto-supervisé, sans aucune intervention humaine préalable. L'intérêt principal d'AIMAPP réside dans sa robustesse face aux conditions réelles d'opération : il continue de fonctionner même en cas de défaillance partielle des capteurs ou de dérive odométrique cumulative, deux problèmes qui paralysent souvent les systèmes classiques de navigation SLAM. Contrairement aux approches par apprentissage profond qui nécessitent d'importants volumes de données annotées, AIMAPP s'adapte en ligne à des environnements changeants et à des observations ambiguës. Dans des évaluations conduites à grande échelle, en environnements réels et simulés, le système surpasse ou égale les planificateurs de référence actuels, ouvrant la voie à des robots déployables dans des contextes non structurés comme des entrepôts, des zones sinistrées ou des espaces extérieurs. L'inférence active est un cadre théorique issu des neurosciences computationnelles, initialement développé pour modéliser la perception et l'action chez les êtres vivants. Son application à la robotique est encore émergente, mais AIMAPP représente une des implémentations les plus complètes à ce jour, combinant cartographie, localisation et prise de décision dans un modèle génératif unifié. Le code est disponible publiquement sur GitHub (decide-ugent/aimapp), ce qui pourrait accélérer son adoption dans la communauté robotique. La prochaine étape naturelle sera de tester le système sur des flottes de robots opérant en parallèle, ainsi que dans des environnements dynamiques peuplés d'humains.

UERecherche conduite par l'Université de Gand (Belgique), le code open-source publié sur GitHub est directement exploitable par les laboratoires et industriels européens actifs en robotique autonome.

💬 Pas de données annotées, pas de carte préalable, et ça tient quand les capteurs flanchent, là où SLAM se plante souvent. C'est le problème qu'on n'arrivait pas à régler proprement depuis des années en robotique mobile. Le code est sur GitHub et compatible ROS, donc les labos n'ont pas besoin de repartir de zéro.

RobotiquePaper
1 source
Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie
2arXiv cs.RO 

Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie

Des chercheurs ont présenté un nouveau système robotique capable de réaliser des insertions d'aiguille guidées par échographie de façon entièrement automatisée et adaptative. Publiée sur arXiv (arXiv:2504.20347), l'étude introduit un modèle de type Vision-Language-Action (VLA) intégré à un système d'échographie robotique (RUS). Le cadre repose sur deux composants clés développés par l'équipe : une tête de suivi baptisée Cross-Depth Fusion (CDF), qui fusionne des caractéristiques visuelles superficielles et sémantiques profondes pour localiser l'aiguille en temps réel, et un registre de conditionnement appelé TraCon (Tracking-Conditioning), qui adapte efficacement un modèle visuel pré-entraîné à grande échelle aux tâches de suivi sans réentraînement complet. À ces composants s'ajoutent une politique de contrôle tenant compte des incertitudes et un pipeline VLA asynchrone, permettant des décisions d'insertion rapides et contextuellement adaptées. L'importance de cette avancée est directe : les insertions d'aiguille guidées par échographie sont omniprésentes en médecine, des biopsies aux anesthésies péridurales en passant par les ponctions vasculaires. Jusqu'ici, les systèmes automatisés reposaient sur des pipelines modulaires construits à la main, peu robustes face aux conditions d'imagerie difficiles, aux variations anatomiques ou aux mouvements du patient. Le nouveau système unifie suivi et contrôle dans un seul modèle bout-en-bout, ce qui lui permet de surpasser en précision de suivi et en taux de succès d'insertion non seulement les méthodes automatisées existantes, mais aussi les opérateurs humains lors des expériences menées, tout en réduisant le temps de procédure. Le guidage échographique reste l'une des modalités les plus utilisées pour les interventions percutanées, mais sa fiabilité dépend fortement de l'expérience du praticien et de la qualité de l'image, deux facteurs très variables en clinique. Les approches à base de vision par ordinateur ont progressé ces dernières années, mais aucune n'avait encore proposé un modèle aussi unifié et adaptatif. Ce travail s'inscrit dans une tendance plus large d'application des grands modèles multimodaux à la robotique chirurgicale, un domaine où des acteurs académiques et industriels comme Intuitive Surgical ou Activ Surgical investissent massivement. Les prochaines étapes naturelles concernent la validation sur des patients réels et l'intégration dans des blocs opératoires, avec toutes les contraintes réglementaires que cela implique.

UELa validation clinique et l'intégration en bloc opératoire devront se conformer au règlement européen sur les dispositifs médicaux (MDR), conditionnant tout déploiement futur en Europe.

RobotiqueActu
1 source
Flow Matching indépendant du temps pour un contrôle robotique génératif, adaptatif et robuste
3arXiv cs.RO 

Flow Matching indépendant du temps pour un contrôle robotique génératif, adaptatif et robuste

Des chercheurs ont publié GeCO (Generative Control as Optimization), un nouveau cadre d'apprentissage par imitation pour robots, présenté dans un article soumis à arXiv (arXiv:2603.17834). Là où les systèmes actuels basés sur la diffusion ou le flow matching consacrent un budget de calcul fixe à chaque mouvement, quelle qu'en soit la complexité, GeCO fonctionne différemment : il transforme la génération d'actions en un processus d'optimisation itérative. Concrètement, le modèle apprend un champ de vitesse stationnaire dans lequel les comportements experts forment des attracteurs stables, ce qui permet à l'inférence de s'arrêter dès convergence plutôt qu'après un nombre prédéterminé d'étapes. Le système s'intègre comme remplacement direct des têtes de flow matching existantes, notamment dans les modèles pi0-series de type Vision-Language-Action (VLA), sans nécessiter de réentraînement de l'architecture complète. L'impact principal est double. D'un côté, GeCO alloue automatiquement plus de calcul aux situations difficiles et s'arrête plus tôt pour les mouvements simples, ce qui améliore à la fois l'efficacité et le taux de succès sur les benchmarks de simulation standards. De l'autre, la géométrie stationnaire du champ de vitesse fournit un signal de sécurité natif et sans entraînement supplémentaire : la norme du champ au point d'action optimisé reste faible pour les situations connues, et augmente significativement en présence d'anomalies ou de situations hors distribution. C'est un détecteur d'OOD (out-of-distribution) gratuit, ce qui est rare dans ce type de systèmes. La robotique apprenante est aujourd'hui dominée par les politiques diffusion et flow matching, héritées des générateurs d'images, avec leur cortège d'étapes d'intégration fixes. Le problème de la détection de situations inconnues est un verrou majeur pour le déploiement sûr de robots en environnement réel. GeCO attaque les deux limites simultanément depuis un angle géométrique plutôt que supervisé, ce qui le distingue des approches concurrentes. Les prochaines étapes naturelles seront la validation sur matériel physique et l'intégration dans des pipelines de manipulation industrielle, domaines où l'adaptabilité computationnelle et la robustesse aux anomalies ont une valeur opérationnelle directe.

RobotiquePaper
1 source
Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris
4The Decoder 

Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris

La start-up américaine Physical Intelligence a présenté π0.7, un nouveau modèle de fondation pour robots capable de recombiner des compétences acquises lors de l'entraînement pour accomplir des tâches inédites. Le principe rappelle directement le fonctionnement des grands modèles de langage, qui assemblent des fragments de leur corpus d'entraînement pour générer du texte nouveau. Les chercheurs qualifient ce phénomène de premières traces de "généralisation compositionnelle" en robotique, une capacité jusqu'ici considérée comme l'un des grands verrous du domaine. L'enjeu est considérable : un robot capable de composer librement ses compétences peut théoriquement s'adapter à des environnements non prévus lors de l'entraînement, sans reprogrammation manuelle. C'est précisément ce qui distingue l'intelligence artificielle générale de la robotique traditionnelle, figée dans des séquences prédéfinies. Physical Intelligence reconnaît toutefois que le modèle présente encore des défauts notables, signe que cette généralisation reste fragile et partielle à ce stade. Physical Intelligence, fondée en 2023 par d'anciens chercheurs de Google, DeepMind et Berkeley, s'est imposée comme l'un des acteurs les plus ambitieux de la robotique dite "généraliste". La société avait déjà publié π0 en 2024, un premier modèle de fondation polyvalent entraîné sur une large variété de tâches physiques. L'annonce de π0.7 s'inscrit dans une course plus large impliquant Figure AI, Agility Robotics et Tesla, tous en quête du même Graal : un robot capable d'apprendre une fois et de s'adapter partout.

RobotiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour