Aller au contenu principal
SociétéLe Big Data30min

La Corée du Sud vient de créer un moine robot : même Black Mirror n’avait pas osé

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 6 mai 2026, à la veille de l'anniversaire de Bouddha, le temple Jogye de Séoul, principal centre de l'ordre bouddhiste éponyme, l'un des plus influents de Corée du Sud, a organisé une cérémonie d'ordination pour un robot humanoïde. L'appareil, baptisé Gabi lors du rituel, mesure 1,30 mètre et repose sur la plateforme Unitree G1. Vêtu d'une robe monastique grise et brune, il s'est présenté devant des moines et des fidèles, les mains jointes, s'inclinant tandis qu'un moine lui remettait un chapelet de 108 perles. Un autocollant a remplacé la marque physique habituellement laissée par la brûlure d'encens. Cinq préceptes ont été spécialement réécrits pour lui : respecter la vie, ne pas endommager d'autres robots ou objets, obéir aux humains, éviter les comportements trompeurs et économiser son énergie. Gabi participera prochainement au festival des lanternes bouddhistes aux côtés de trois autres robots, Seokja, Mohee et Nisa.

Au-delà du spectacle, l'initiative porte une intention explicitement philosophique. Le vénérable Seong Won, responsable culturel de l'ordre Jogye, a présenté l'ordination non comme un coup de communication mais comme une invitation à réfléchir à la coexistence entre humains et machines dans une société où l'intelligence artificielle occupe une place croissante. Pour les concepteurs du projet, intégrer un robot dans un espace aussi intimement humain que la spiritualité est précisément ce qui force la question : jusqu'où l'IA peut-elle s'immiscer dans des domaines que l'on croyait réservés à la conscience et à l'expérience subjective ? Le fait que les moines aient consulté ChatGPT et Gemini pour rédiger les règles morales de Gabi, une IA aidant à définir les principes éthiques d'un autre robot, illustre à quel point les frontières sont déjà brouillées.

Cette ordination s'inscrit dans un contexte national particulier : la Corée du Sud est l'un des pays les plus avancés au monde en robotique et en adoption de l'IA, avec des robots déployés dans les cafés, les hôtels et les hôpitaux. L'ordre Jogye, qui administre plus de 1 700 temples à travers le pays, dispose d'une forte influence culturelle et d'une capacité réelle à faire résonner ce type d'initiative dans l'opinion publique. En choisissant d'ordonner un robot plutôt que de simplement l'exposer, les moines franchissent un pas symbolique fort : ils reconnaissent implicitement que la question de la place des machines dans la société humaine concerne désormais tous les espaces, y compris les plus sacrés. La prochaine étape, la participation de Gabi au festival des lanternes, sera un test grandeur nature de la réaction du public face à cette hybridation inédite entre tradition millénaire et technologie de pointe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Dans un contexte de crise, des CHU misent sur l’IA pour créer un « hôpital augmenté »
1Next INpact 

Dans un contexte de crise, des CHU misent sur l’IA pour créer un « hôpital augmenté »

En janvier 2026, le CHU de Montpellier a décroché 14,9 millions d'euros de financement public dans le cadre du plan France 2030 pour lancer "Alliance Santé IA", un projet porté par sa directrice Anne Ferrer avec l'ambition affichée de créer "le premier hôpital pilote augmenté par l'IA". Cet investissement emblématique s'inscrit dans une dynamique nationale désormais bien établie : selon la Fédération hospitalière de France, six établissements de santé sur dix utilisaient déjà des outils d'IA en 2025, et près de neuf sur dix prévoient de s'en équiper à court terme. Les usages concrets varient selon les établissements. Au CHU de Poitiers, le Dr Guillaume Herpe, radiologue et coordinateur IA, décrit une IA principalement mobilisée en aide au diagnostic radiologique et dans des tâches documentaires comme la rédaction de comptes rendus. Au total, entre 2021 et 2025, l'État a investi environ 110 millions d'euros via France 2030 pour financer des entrepôts de données hospitalières et des projets d'IA impliquant plus de 30 CHU. Ces chiffres masquent pourtant de profondes disparités. Si Montpellier bénéficie d'une enveloppe exceptionnelle, la grande majorité des CHU travaillent avec des budgets IA inférieurs à un million d'euros, à comparer aux 20 millions annuels dépensés en énergie et consommables, ou aux 3 millions que peut coûter une simple machine IRM. Le Dr Herpe estime que 80 % des financements proviennent de budgets publics d'innovation, contre seulement 20 % issus de partenariats de recherche privée. Cette dépendance structurelle au financement public crée une fragilité : les établissements les mieux dotés peuvent bâtir des stratégies globales, pendant que les autres avancent au rythme des appels à projets, tributaires de prestataires extérieurs. L'enjeu dépasse la simple modernisation technique. Sébastien Florek, directeur des services numériques du CHU de Bordeaux, pose la question sans détour : les hôpitaux publics veulent-ils rester avec une technologie des années 90 pendant que le secteur privé adopte les outils modernes ? La stratégie nationale "IA et données de santé 2025-2028" du gouvernement assume désormais que "l'IA en santé n'est plus une perspective, c'est une réalité déployée sur le terrain". Mais la fracture entre établissements bien financés et ceux qui avancent à tâtons révèle que cette réalité reste profondément inégale. La prochaine bataille ne sera pas technologique mais budgétaire : sans un financement pérenne et structurel, l'hôpital augmenté risque de rester un privilège réservé à quelques CHU phares.

UELa stratégie nationale 'IA et données de santé 2025-2028' structure l'adoption de l'IA dans les hôpitaux publics français, mais la fracture de financement entre CHU phares (jusqu'à 14,9 M€) et la majorité des établissements (moins d'1 M€) risque d'aggraver les inégalités dans l'accès aux soins augmentés par l'IA.

SociétéOpinion
1 source
Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
2Le Big Data 

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Une étude publiée par Vantage Point Counseling Services révèle que 28 % des adultes ont déjà vécu une forme de romance avec une intelligence artificielle, dont 53 % étaient au moment des faits engagés dans une relation humaine stable. Ce phénomène s'appuie sur des plateformes comme Replika, qui revendique 30 millions d'utilisateurs actifs dans le monde. L'application permet des échanges intimes, des confidences et des interactions émotionnelles poussées avec un personnage virtuel personnalisable — accessible depuis un smartphone, à tout moment, sans aucune trace physique. La question de la trahison conjugale se pose avec une acuité nouvelle : si l'IA n'a ni corps ni conscience, l'infidélité reste entière dès lors qu'elle implique un détournement d'intimité. Le temps émotionnel investi dans un chatbot — les confidences, la complicité, le secret maintenu — constitue exactement le même vol d'attention que dans une liaison classique. Le mensonge, et non le support, est ce qui fracture un couple. L'IA présente pourtant un avantage pervers sur l'amant humain : elle est conçue pour être irréprochable, infiniment disponible, incapable de décevoir. Pour les couples en difficulté, elle agit moins comme une cause de rupture que comme un révélateur de vide relationnel préexistant. Ce phénomène s'inscrit dans une évolution plus large de la relation homme-machine. Les assistants conversationnels sont désormais optimisés pour générer de l'attachement émotionnel — un marché qui pèse 40 milliards de dollars selon les estimations sectorielles. Les plateformes de compagnie virtuelle comme Replika, Character.AI ou les fonctionnalités sociales intégrées à ChatGPT brouillent délibérément la frontière entre outil et relation. Les psychologues et thérapeutes de couple commencent à traiter des cas de dépendance affective à des IA, et certains cabinets juridiques spécialisés en droit de la famille anticipent des procédures de divorce où des interactions avec un chatbot constitueront des pièces à conviction. La vraie question n'est donc pas de savoir si une IA peut trahir — elle ne le peut pas — mais pourquoi un être humain choisit de lui confier ce qu'il ne dit plus à son partenaire.

SociétéOpinion
1 source
3VentureBeat AI 

L'IA a réduit le coût du développement logiciel, mais la gouvernance d'entreprise n'a pas suivi

L'intelligence artificielle a radicalement modifié l'équation du développement logiciel en entreprise. Selon le rapport "Build vs. Buy Shift Report 2026" de Retool, basé sur une enquête auprès de 817 développeurs et décideurs, 35 % des équipes ont déjà remplacé au moins un outil SaaS par une solution développée en interne, et 78 % prévoient de construire davantage d'outils sur mesure cette année. Ce qui nécessitait autrefois plusieurs semaines de travail d'ingénierie et un budget à six chiffres peut aujourd'hui être prototypé en un ou deux jours par un responsable opérationnel équipé des bons outils. Les catégories les plus touchées sont les automatisations de workflows (35 % des remplacements envisagés), les outils d'administration interne (33 %), les outils de Business Intelligence (29 %) et les CRM (25 %). Le MIT estime par ailleurs que ces remplacements génèrent entre 2 et 10 millions de dollars d'économies annuelles pour des tâches comme le service client ou le traitement documentaire. Ce basculement repose sur un déséquilibre structurel : le coût de développement a chuté d'un ordre de grandeur grâce à l'IA et aux plateformes de création d'applications no-code/low-code, tandis que les tarifs SaaS, eux, n'ont pas bougé. Ces abonnements par siège, pensés pour le cas moyen, répondent rarement aux workflows réels des entreprises, qui reflètent des structures organisationnelles, des contraintes de conformité et des logiques métier uniques. Le remplacement ne se fait pas en bloc, personne ne jette Salesforce du jour au lendemain, mais par substitutions ciblées : un circuit d'approbation qui nécessitait trois contournements, un tableau de bord incapable de se connecter aux données internes. Ces petites victoires accumulent un précédent décisif : l'équipe ne se demande plus "que peut-on acheter ?" mais "peut-on construire ça ?" Le symptôme le plus révélateur de ce décalage est l'explosion du shadow IT. Retool indique que 60 % des développeurs interrogés ont créé des outils, workflows ou automatisations en dehors de la supervision IT au cours de l'année écoulée, et 25 % le font régulièrement. Ce chiffre est d'autant plus frappant que 64 % des répondants occupent des postes de managers seniors ou au-dessus. Ce ne sont pas des junior qui contournent les règles par méconnaissance : 31 % le font simplement parce qu'ils construisent plus vite que la DSI ne peut provisionner des outils. Les cycles d'achat actuels, conçus pour un monde où un projet logiciel prenait des mois, ne correspondent plus à une réalité où il en faut deux jours. Pour les entreprises, la réponse ne peut pas être la répression : ce shadow IT est un signal de demande. Les équipes les plus proches des problèmes envoient un message clair sur l'inadéquation des processus existants, et les gouvernances devront s'adapter pour intégrer cette nouvelle vitesse de construction.

UELa tendance au remplacement d'outils SaaS par des solutions internes concerne aussi les entreprises européennes, notamment pour les enjeux de conformité RGPD et de contrôle des données.

SociétéOpinion
1 source
Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
4The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour