
Un robot humanoïde interrompt une performance de danse pour étreindre un étudiant
Lors de la cérémonie d'ouverture d'une compétition sportive universitaire à l'Université Xi'an Eurasia, dans la province du Shaanxi au nord-ouest de la Chine, un robot humanoïde a dévié de sa chorégraphie programmée pour se retourner vers une étudiante et la prendre dans ses bras. Le personnel présent est intervenu en quelques secondes pour séparer le robot de la jeune femme, qui n'a pas été blessée. L'incident, filmé et diffusé largement en ligne, impliquait un robot fourni par une entreprise fondée par d'anciens étudiants de l'établissement, dans le cadre d'une performance commune avec le club de danse du campus. Un membre du personnel universitaire a confirmé que cette étreinte n'était pas préprogrammée et l'a qualifiée de dysfonctionnement. La société responsable du robot a attribué le comportement anormal à des interférences de signal causées par plusieurs drones opérant simultanément pendant le spectacle.
L'incident soulève une question de sécurité concrète et sérieuse, bien au-delà des spéculations sur une éventuelle "conscience" du robot, hypothèse rapidement écartée par les experts. Gao Huan, directeur adjoint du Laboratoire d'Intelligence et de Cognition de l'Université Normale de Chongqing, a pointé le vrai problème : pourquoi le robot était-il encore capable d'entrer en contact physique avec un être humain après que le comportement anormal avait déjà commencé ? Les robots utilisés dans des spectacles suivent des scripts de mouvement préprogrammés, et des erreurs de positionnement, des déviations de reconnaissance de posture ou des défaillances dans la séquence d'exécution peuvent entraîner des contacts non intentionnels. Pour Gao, l'enjeu n'est pas de savoir si le robot a agi intentionnellement, mais de déterminer si des garde-fous suffisants existaient pour stopper tout contact dès l'apparition de la défaillance.
Cet épisode s'inscrit dans une série d'incidents impliquant des robots humanoïdes lors d'événements publics en Chine, où l'intégration rapide de ces machines dans les sphères culturelles et commerciales devance systématiquement les protocoles de sécurité censés encadrer leur usage. En 2025, un robot industriel était devenu incontrôlable lors d'une phase de test, blessant des opérateurs. La même année, un robot performeur avait chargé une foule derrière une barrière de sécurité lors d'un festival. Dans chaque cas, la cause technique était identifiable : erreur de code, panne de contrôle ou perturbation du signal. Gao Huan a rappelé que le déploiement responsable de robots humanoïdes dans des environnements ouverts, en collaboration avec des humains, exige des répétitions sur site, des distances de sécurité définies, des mécanismes d'arrêt d'urgence et une supervision humaine dédiée. En l'état, ces robots sont traités comme des accessoires de scène ordinaires, alors qu'ils constituent des dispositifs mécaniques présentant des risques de mouvement réels.
L'incident illustre les lacunes de sécurité que l'AI Act européen cherche précisément à combler, en classant les robots interagissant physiquement avec des humains dans des espaces publics parmi les systèmes à haut risque nécessitant des protocoles stricts.




