Aller au contenu principal
Familiar : ce robot veut devenir le nouveau membre de votre famille
RobotiqueLe Big Data1h

Familiar : ce robot veut devenir le nouveau membre de votre famille

Résumé IASource uniqueImpact UE
Source originale ↗·

Colin Angle, cofondateur d'iRobot et père du Roomba, a dévoilé lors de la conférence Future of Everything un robot quadrupède baptisé Familiar, développé par sa nouvelle société Familiar Machines & Magic. Contrairement aux robots industriels qui dominent le marché, Familiar est conçu exclusivement pour vivre aux côtés des humains. Doté de 23 degrés de liberté, il ne communique ni par écran ni par interface classique, mais uniquement par le mouvement, le son et le toucher. Une enveloppe tactile, des caméras et des microphones lui permettent de percevoir son environnement en temps réel. Son intelligence artificielle multimodale, combinant vision, audio, langage et mémoire, fonctionne entièrement en local, sans dépendance au cloud, pour minimiser la latence et protéger la vie privée des utilisateurs. L'entreprise, jusqu'ici restée discrète, sort officiellement de sa phase de développement confidentielle.

Ce robot de compagnie incarne une rupture de philosophie dans la robotique grand public. Là où les assistants vocaux et les interfaces numériques restent abstraits, Familiar mise sur la présence physique comme vecteur de lien : selon l'entreprise, les humains réagissent différemment à une machine tangible qu'à un écran. Le robot apprend progressivement de chaque interaction, construit une mémoire des comportements de ses utilisateurs et adapte ses réponses dans la durée, une forme de personnalisation continue que les appareils classiques ne peuvent offrir. Pour les personnes isolées, les enfants ou les personnes âgées, ce type de compagnon robotique pourrait représenter une alternative concrète aux solutions numériques actuelles, en répondant à des besoins émotionnels et relationnels que les machines industrielles n'adressent pas.

Le marché de la robotique est aujourd'hui massivement orienté vers la manipulation, le tri et le transport en entrepôt, un secteur en croissance rapide où s'affrontent Boston Dynamics, Figure ou Agility Robotics. Familiar Machines & Magic choisit délibérément de s'en écarter pour explorer le segment du robot domestique de compagnie, encore peu structuré mais potentiellement immense. L'équipe s'appuie sur des profils issus de Disney Research, du MIT, d'Amazon et de Boston Dynamics, ce qui lui confère une crédibilité technique solide. Colin Angle a déjà prouvé avec iRobot qu'un robot simple pouvait séduire des millions de foyers ; il cherche désormais à franchir une étape supérieure en créant des machines qui « comprennent leur environnement » plutôt que d'exécuter des tâches figées. Aucune date de commercialisation ni de prix n'ont été annoncés : la présentation de Familiar reste pour l'instant une démonstration de vision, mais elle pose les jalons d'une nouvelle catégorie de produits qui pourrait redéfinir la place du robot dans l'espace domestique.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta veut devenir l’Android des robots humanoïdes
1Next INpact 

Meta veut devenir l’Android des robots humanoïdes

Meta a confirmé auprès de Bloomberg l'acquisition d'Assured Robot Intelligence (ARI), une startup spécialisée dans le développement de modèles d'intelligence artificielle pour la robotique. L'équipe d'ARI, présentée par Meta comme se situant « à la pointe de l'intelligence robotique, conçue pour permettre aux robots de comprendre, prévoir et s'adapter aux comportements humains dans des environnements complexes et dynamiques », rejoint le Meta Superintelligence Labs. Elle travaillera étroitement avec le Meta Robotics Studio, une division créée en février 2025 pour développer les technologies de base des robots humanoïdes. Ce rachat s'inscrit dans une stratégie plus large : Meta a déjà présenté en octobre 2025 des prototypes de capteurs tactiles avancés, le Digit Plexus, une solution matérielle pour intégrer des capteurs dans une main robotique, et le Digit 360, un capteur en forme de doigt fournissant des données haptiques très précises. Le géant des réseaux sociaux aurait par ailleurs déjà engagé des discussions avec Unitree Robotics, fabricant chinois connu pour ses robots acrobatiques, ainsi qu'avec Figure AI. L'ambition de Meta ne se limite pas à fabriquer ses propres robots : l'entreprise veut jouer un rôle de plateforme transversale pour toute l'industrie, sur le modèle d'Android et des puces Qualcomm dans l'écosystème des smartphones. Si ce positionnement réussit, Meta se retrouverait en position centrale dans un marché potentiellement colossal, en fournissant les briques logicielles et matérielles sur lesquelles d'autres constructeurs bâtiront leurs produits. L'enjeu industriel est réel : Amazon estime que les robots humanoïdes lui permettront d'éviter 600 000 embauches d'ici 2033, signal fort que la demande en environnements professionnels précède largement celle du grand public. Ce mouvement s'inscrit dans une dynamique de fond déclenchée par l'essor de l'IA générative, qui a fourni aux robots la capacité de comprendre des consignes en langage naturel, de décomposer des tâches complexes et de s'adapter à des situations imprévues, ce que les systèmes robotiques classiques ne pouvaient pas faire seuls. De nombreuses entreprises ont flairé l'opportunité d'un nouveau marché lucratif, et la compétition se structure rapidement. Tesla mise sur une approche intégrée verticalement avec Optimus, Elon Musk ayant promis lors du Forum de Davos une commercialisation possible dès fin 2026. Meta, dont le laboratoire de recherche fondamentale FAIR a vu son influence diminuer depuis le départ de Yann LeCun, réoriente clairement ses ressources vers ce chantier via le Superintelligence Labs. La question est désormais de savoir si le modèle « couche d'infrastructure ouverte » peut s'imposer face aux acteurs qui cherchent à tout contrôler, de la puce au châssis.

RobotiqueOpinion
1 source
Vidéo : Ce robot humilie les meilleurs joueurs de ping-pong au monde
2Le Big Data 

Vidéo : Ce robot humilie les meilleurs joueurs de ping-pong au monde

Sony AI a dévoilé mercredi dans la revue scientifique Nature les résultats d'Ace, un robot de tennis de table développé à Zurich. Sur cinq matchs disputés en règles officielles contre des joueurs d'élite, Ace en a remporté trois. Face à des professionnels confirmés, le bilan est plus nuancé : deux défaites et une seule manche gagnée sur sept rencontres. Le système repose sur un bras articulé à huit axes monté sur une base mobile, équipé de caméras multi-angles qui analysent position et rotation de la balle en temps réel. En ciblant le logo imprimé sur la balle, Ace estime l'effet en quelques millisecondes. L'entraînement a nécessité environ 3 000 heures de simulation, et certains gestes, notamment le service, ont été modélisés directement à partir de joueurs expérimentés. Peter Dürr, responsable du projet chez Sony AI, indique que le robot a depuis progressé : « Nous avons affronté des adversaires plus forts et nous les avons battus. » Le tennis de table est depuis longtemps considéré comme l'un des défis les plus ardus pour la robotique : la vitesse des échanges, la diversité des effets et la précision millimétrée requise en font un banc d'essai exigeant pour les systèmes autonomes. Ace a démontré une maîtrise solide de ces contraintes, gérant des situations complexes comme des balles frôlant le filet, et réalisant un coup rétro rapide qu'un ancien joueur olympique, Kinjiro Nakamura, jugeait jusqu'alors impossible à produire mécaniquement. Ce dernier estime désormais que les humains pourraient s'inspirer de cette technique. Le robot bénéficie par ailleurs d'un avantage psychologique non négligeable : sans regard ni langage corporel, ses intentions sont illisibles pour l'adversaire, ce qui perturbe les stratégies habituelles de lecture du jeu. Cette percée s'inscrit dans une compétition mondiale accélérée autour de la robotique généraliste à haute réactivité, où Sony AI se positionne comme un acteur sérieux aux côtés de Google DeepMind, Boston Dynamics ou Figure AI. Jusqu'ici, les tentatives de robots pongistes restaient cantonnées à des démonstrations contrôlées, loin des conditions de match réel. Publier dans Nature avec des résultats contre de vrais compétiteurs marque un saut qualitatif. Les limites actuelles d'Ace, difficultés sur les balles lentes et peu liftées, indiquent les axes de travail restants, mais la trajectoire est claire : chaque version repousse davantage le niveau humain de référence, et les chercheurs laissent entendre que la parité avec les meilleurs joueurs mondiaux n'est plus une question de principe, mais de temps.

RobotiqueOpinion
1 source
Vidéo : Ce robot bagagiste est la nouvelle star de l’aéroport de Japon
3Le Big Data 

Vidéo : Ce robot bagagiste est la nouvelle star de l’aéroport de Japon

Japan Airlines lancera dès le début du mois de mai 2026 une expérimentation inédite à l'aéroport international de Haneda, à Tokyo : des robots humanoïdes utilisés comme bagagistes sur le tarmac. Ces machines, conçues par l'entreprise chinoise Unitree et mesurant 1,30 mètre, seront chargées de déplacer bagages et marchandises dans l'un des hubs aériens les plus fréquentés du monde, avec plus de 60 millions de passagers accueillis chaque année. Le projet est mené en partenariat avec le groupe GMO Internet et s'étendra jusqu'en 2028 pour en évaluer pleinement l'efficacité opérationnelle. Lors d'une démonstration récente, l'un de ces robots a poussé du fret sur un tapis roulant avant d'effectuer un salut en direction d'un collègue absent, une scène aussi symbolique qu'inattendue, illustrant à la fois le potentiel et les limites actuelles de ces machines. L'enjeu est considérable pour Japan Airlines et pour le secteur aéroportuaire japonais dans son ensemble. Yoshiteru Suzuki, président de JAL Ground Service, estime que confier les tâches physiques aux robots pourrait alléger significativement la charge de travail des équipes au sol, dans un contexte où les recrutements peinent à suivre la demande. Les robots seraient capables de fonctionner en autonomie pendant deux à trois heures consécutives et pourraient, à terme, être déployés sur d'autres missions comme le nettoyage des cabines. Les missions liées à la sécurité resteraient cependant sous responsabilité humaine, une limite qui traduit la prudence du secteur face à l'intégration de ces nouvelles technologies dans un environnement aussi réglementé que l'aérien. Ce projet s'inscrit dans une crise structurelle que le Japon tente de gérer depuis plusieurs années : une population vieillissante combinée à un afflux touristique record. Le pays a accueilli 42,7 millions de visiteurs étrangers en 2025, et plus de 7 millions ont déjà été enregistrés sur les deux premiers mois de 2026, malgré un recul des touristes chinois dû à des tensions diplomatiques. Face à la contraction de sa population active, le Japon pourrait avoir besoin de plus de 6,5 millions de travailleurs étrangers supplémentaires d'ici 2040, mais le gouvernement reste soumis à des pressions politiques pour contenir l'immigration. C'est dans ce contexte que la robotisation des tâches physiques apparaît comme une réponse pragmatique, et peut-être inévitable. Tomohiro Uchida, directeur de GMO AI and Robotics, souligne que les aéroports restent encore très dépendants du travail humain malgré des infrastructures très automatisées, et c'est précisément ce paradoxe que cette expérience vise à commencer à résoudre.

RobotiqueActu
1 source
Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents
4The Information AI 

Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents

Google DeepMind a publié cette semaine Gemini Robotics-ER-1.6, un nouveau modèle de vision et de langage conçu pour aider les robots à interpréter leur environnement. Pour illustrer ses capacités, Boston Dynamics, qui dispose d'un accord pour intégrer Gemini dans ses robots humanoïdes, a publié une vidéo de ses robots quadrupèdes utilisant le modèle pour lire un thermomètre lors d'une inspection dans une installation industrielle. Selon les benchmarks internes de Google, les gains restent modestes sur un seul flux caméra : le modèle n'améliore que marginalement la capacité du robot à détecter la fin d'une tâche par rapport aux versions précédentes. En revanche, les performances progressent nettement lorsque le robot exploite plusieurs flux caméra simultanément. C'est précisément là que réside l'enjeu pratique : la majorité des environnements robotiques industriels, qu'il s'agisse d'usines ou d'entrepôts, s'appuient sur plusieurs points de vue combinés, comme une caméra en hauteur et une caméra fixée sur le bras du robot. Le système doit être capable de fusionner ces perspectives pour construire une compréhension cohérente de ce qu'il accomplit et savoir quand la tâche est terminée. Ce lancement s'inscrit dans une course intense entre les grands laboratoires d'IA pour doter les robots d'une intelligence de perception plus robuste. Google DeepMind et Boston Dynamics ont formalisé leur partenariat autour de Gemini pour les robots humanoïdes, signalant une convergence entre les modèles de fondation et la robotique physique. Si les progrès annoncés restent incrémentaux, l'amélioration sur les configurations multi-caméras est directement applicable aux déploiements industriels existants, ce qui pourrait accélérer l'adoption de robots autonomes dans des environnements de travail réels. Les prochaines versions du modèle seront à surveiller pour évaluer si ces gains se traduisent en performances significatives sur des tâches complexes en conditions réelles.

RobotiqueActu
1 source