Aller au contenu principal
Créer l'écosystème d'agents ouverts ensemble : Présentation d'OpenEnv
RobotiqueHuggingFace Blog28sem

Créer l'écosystème d'agents ouverts ensemble : Présentation d'OpenEnv

Résumé IASource uniqueImpact UE
Source originale ↗·

Dans un effort concerté, des chercheurs et des développeurs ont présenté OpenEnv, un environnement open-source destiné à favoriser le développement d'agents intelligents et leur interaction dans diverses simulations. OpenEnv, soutenu par la fondation OpenAI, vise à standardiser les cadres d'entraînement pour les agents artificiels, rendant ainsi le processus d'apprentissage plus transparent et collaboratif. Ce projet inclut des simulations comme Roboschool et Meta-World, et compte des contributeurs de renom comme le laboratoire d'intelligence artificielle de l'Université de California, Berkeley.

Impact France/UE

OpenEnv, un environnement open-source pour agents intelligents, soutenu par la fondation OpenAI, impacte les entreprises européennes de l'IA en standardisant les cadres d'entraînement, potentiellement facilitant la conformité avec l'AI Act et renforçant la transparence, tout en favorisant la collaboration et l'innovation dans des secteurs comme la robotique et la simulation.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

En Pratique: Évaluation des Agents Utilisant des Outils dans des Environnements du Monde Réel avec OpenEnv
1HuggingFace Blog 

En Pratique: Évaluation des Agents Utilisant des Outils dans des Environnements du Monde Réel avec OpenEnv

OpenEnv, un cadre de simulation, a été utilisé pour évaluer l'efficacité des agents utilisateurs d'outils dans des environnements réels. Les chercheurs ont testé diverses stratégies d'agents dans des scénarios inspirés de la vie réelle, montrant une amélioration significative des performances grâce à l'adaptation et à l'apprentissage. Des exemples concrets incluent la navigation dans des espaces complexes et la manipulation d'objets pour résoudre des tâches, avec des agents démontrant une capacité à s'adapter à des changements imprévus.

UEL'utilisation d'OpenEnv pour évaluer les agents utilisateurs d'outils renforce l'efficacité des entreprises européennes dans le développement de robots autonomes et d'IA, en améliorant les capacités d'adaptation et d'apprentissage dans des environnements réels, en conformité potentielle avec l'AI Act et le RGPD pour les applications industrielles et domestiques.

RobotiqueOutil
1 source
Présentation de l'environnement de déploiement étaté pour les agents sur Amazon Bedrock
2OpenAI Blog 

Présentation de l'environnement de déploiement étaté pour les agents sur Amazon Bedrock

L'environnement de exécution stataique pour les agents d'Amazon Bedrock introduit une orchestration persistante, une mémoire et une exécution sécurisée pour les flux de travail d'IA multi-étapes alimentés par OpenAI.

UEAucun impact direct — Cet article concerne une nouvelle fonctionnalité d'Amazon Bedrock, une plateforme d'IA, sans spécification d'applications ou implications pour des entreprises françaises ou européennes, ni référence à des lois spécifiques comme le RGPD ou l'AI Act.

RobotiqueOutil
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
3arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source
VISION-SLS : contrôle sûr par représentations visuelles apprises via synthèse système
4arXiv cs.RO 

VISION-SLS : contrôle sûr par représentations visuelles apprises via synthèse système

Des chercheurs ont publié VISION-SLS, une méthode de contrôle robotique capable de piloter un robot en temps réel à partir d'images RGB haute résolution tout en garantissant formellement la sécurité du comportement. La méthode a été testée sur plusieurs systèmes simulés : une voiture à 4 dimensions d'état, un quadrirotor à 10 dimensions, et un humanoïde à 59 dimensions opérant dans des conditions de visibilité partielle, le tout avec des flux vidéo d'au moins 512 x 512 pixels. Elle a également été validée sur un véritable véhicule terrestre contrôlé uniquement par ses caméras embarquées, surpassant les approches concurrentes en termes de taux de sécurité et de temps de calcul. Le code source est disponible sur GitHub. Ce qui distingue VISION-SLS des approches existantes, c'est sa capacité à combiner apprentissage profond et garanties formelles de sécurité, deux mondes qui s'ignoraient largement jusqu'ici. En robotique autonome, un système peut prendre de bonnes décisions en moyenne tout en échouant catastrophiquement dans des cas limites. VISION-SLS résout ce problème en construisant des bornes d'erreur calibrées empiriquement sur la représentation visuelle apprise, puis en intégrant ces incertitudes directement dans l'optimisation de la politique de contrôle via un cadre appelé System Level Synthesis (SLS). Résultat : le robot adopte un comportement actif de réduction d'incertitude, cherchant à mieux se localiser, tout en restant dans des zones certifiées sûres. Le défi fondamental que cherche à résoudre VISION-SLS est vieux comme la robotique moderne : comment piloter un système physique depuis des capteurs imparfaits, avec des dynamiques non linéaires, sans garanties de collision ? Les méthodes de contrôle classiques exigent un état complet et précis du système ; les méthodes d'apprentissage par renforcement offrent de bonnes performances moyennes mais sans garanties. SLS est un cadre de théorie du contrôle qui permet de concevoir des politiques robustes avec des garanties mathématiques, mais il était jusqu'ici inapplicable à des entrées visuelles haute dimension. VISION-SLS lève cet obstacle en apprenant une représentation compacte des images avec des bornes d'erreur exploitables, et en développant un solveur original basé sur la programmation convexe séquentielle couplée à des récursions de Riccati pour rendre le tout calculable en temps réel.

RobotiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour