Aller au contenu principal
Memories.ai développe une couche de mémoire visuelle pour les wearables et la robotique
RobotiqueTechCrunch AI6sem

Memories.ai développe une couche de mémoire visuelle pour les wearables et la robotique

Résumé IASource uniqueImpact UE
Source originale ↗·

Memories.ai s'attaque à l'un des défis fondamentaux de l'intelligence artificielle embarquée : doter les machines d'une mémoire visuelle persistante et interrogeable. La startup développe un grand modèle de mémoire visuelle capable d'indexer et de retrouver des souvenirs enregistrés en vidéo, ouvrant la voie à une nouvelle génération d'IA physique.

L'enjeu est considérable pour deux secteurs en pleine expansion : les wearables (lunettes connectées, appareils portables) et la robotique. Jusqu'ici, les systèmes d'IA traitaient les flux vidéo en temps réel sans capacité de rappel structuré — chaque interaction repartait de zéro. Une couche de mémoire visuelle longue durée change radicalement ce paradigme, permettant à un robot ou un assistant porté de relier une situation présente à des événements passés.

Le cœur du projet repose sur un modèle capable d'indexer automatiquement des séquences vidéo et d'en extraire des souvenirs récupérables à la demande. Cette approche — baptisée « physical AI » — vise des applications concrètes : un robot industriel qui reconnaît un objet déjà manipulé, des lunettes AR qui retrouvent où un utilisateur a posé ses clés, ou encore des assistants personnels qui construisent une mémoire épisodique de la vie quotidienne.

Si les détails techniques et le financement de Memories.ai restent pour l'instant limités, la direction prise s'inscrit dans une tendance lourde de l'industrie : après la mémoire textuelle des LLMs, la prochaine frontière est la mémoire multimodale ancrée dans le monde physique — un domaine où Google, Meta et plusieurs startups spécialisées se livrent déjà une concurrence intense.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique
1The Information AI 

Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique

Deepu Talla, vice-président de la robotique chez Nvidia, affirme que les agents IA représenteront pour la robotique ce que ChatGPT a été pour l'IA grand public. Un seul agent pourrait coordonner toute une flotte de robots, décomposant un objectif en tâches spécifiques assignées à chaque robot. Nvidia mise sur l'extension de ses systèmes d'IA agentique, d'abord conçus pour le numérique, vers des modèles physiques présentés lors de la conférence GTC à San José.

RobotiqueActu
1 source
Ai2 : développer une IA physique grâce aux données de simulation virtuelle
2AI News 

Ai2 : développer une IA physique grâce aux données de simulation virtuelle

L'Allen Institute for AI (Ai2) a développé MolmoBot, un modèle de manipulation robotique entraîné entièrement sur des données synthétiques, sans recourir aux démonstrations téléopérées coûteuses utilisées par des projets comme RT-1 de Google DeepMind (130 000 épisodes sur 17 mois). Grâce à leur système MolmoSpaces et au moteur physique MuJoCo sur 100 GPU Nvidia A100, l'équipe a généré 1,8 million de trajectoires d'entraînement, soit un débit 4 fois supérieur à la collecte réelle. Cette approche, selon le CEO Ali Farhadi, vise à démocratiser la robotique en offrant des outils open source à toute la communauté de recherche mondiale.

RobotiquePaper
1 source
JoyAI-RA 0.1 : un modèle de base pour l'autonomie robotique
3arXiv cs.RO 

JoyAI-RA 0.1 : un modèle de base pour l'autonomie robotique

Des chercheurs ont publié le 28 avril 2026 sur arXiv un nouveau modèle de fondation baptisé JoyAI-RA 0.1, conçu pour doter les robots d'une autonomie généralisable dans des environnements réels et variés. Ce modèle de type vision-langage-action (VLA) s'appuie sur un cadre d'entraînement multi-sources et multi-niveaux inédit : il combine des données issues du web, des vidéos en vue subjective de manipulations humaines à grande échelle, des trajectoires générées par simulation, et des données collectées sur de vrais robots. Selon les résultats présentés, JoyAI-RA surpasse les méthodes les plus avancées sur des benchmarks en simulation comme en environnement réel, particulièrement sur des tâches variées nécessitant une capacité de généralisation. L'enjeu central de ce travail est la généralisation inter-robots, un problème récurrent dans le domaine : les modèles entraînés sur un type de robot peinent à s'adapter à d'autres architectures mécaniques ou capteurs différents. JoyAI-RA propose une unification explicite des espaces d'action, ce qui lui permet de transférer efficacement des comportements appris depuis des vidéos de manipulation humaine vers le contrôle robotique. Ce pont entre geste humain et mouvement machine est particulièrement prometteur pour réduire les coûts de collecte de données et accélérer le déploiement de robots polyvalents dans des contextes industriels, logistiques ou domestiques. La robotique autonome bute depuis des années sur deux obstacles structurels : la faible diversité des jeux de données disponibles et l'impossibilité de réutiliser des comportements appris d'un robot à l'autre. JoyAI-RA s'inscrit dans une tendance de fond qui voit émerger des modèles de fondation généralistes pour la robotique, à l'image de RT-2 de Google DeepMind ou d'OpenVLA. La particularité de cette approche réside dans l'intégration massive de vidéos de manipulation humaine comme source de supervision implicite, une stratégie qui contourne partiellement la rareté des données robotiques annotées. La publication en version 0.1 suggère que l'équipe, vraisemblablement liée à l'écosystème chinois au vu du nom JoyAI, entend faire évoluer ce modèle rapidement.

RobotiqueOpinion
1 source
Nouveaux modèles de robotique : Ai2 met à disposition des versions entraînées uniquement en simulation pour éviter la collecte de données dans le monde réel
4The Decoder 

Nouveaux modèles de robotique : Ai2 met à disposition des versions entraînées uniquement en simulation pour éviter la collecte de données dans le monde réel

Ai2 dévoile de nouveaux modèles de robotique entièrement formés en simulation, évitant ainsi la collecte de données réelles dans le monde réel. Ces robots, selon Ai2, peuvent fonctionner efficacement sans nécessiter de formation sur des données provenant de la réalité.

RobotiqueActu
1 source