Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
Une étude publiée par **Vantage Point Counseling Services** révèle que **28 % des adultes** ont déjà vécu une forme de romance avec une intelligence artificielle, dont **53 %** étaient au moment des faits engagés dans une relation humaine stable. Ce phénomène s'appuie sur des plateformes comme **Replika**, qui revendique **30 millions d'utilisateurs** actifs dans le monde. L'application permet des échanges intimes, des confidences et des interactions émotionnelles poussées avec un personnage virtuel personnalisable — accessible depuis un smartphone, à tout moment, sans aucune trace physique. La question de la trahison conjugale se pose avec une acuité nouvelle : si l'IA n'a ni corps ni conscience, l'infidélité reste entière dès lors qu'elle implique un **détournement d'intimité**. Le temps émotionnel investi dans un chatbot — les confidences, la complicité, le secret maintenu — constitue exactement le même vol d'attention que dans une liaison classique. **Le mensonge, et non le support**, est ce qui fracture un couple. L'IA présente pourtant un avantage pervers sur l'amant humain : elle est conçue pour être irréprochable, infiniment disponible, incapable de décevoir. Pour les couples en difficulté, elle agit moins comme une cause de rupture que comme un **révélateur de vide relationnel** préexistant. Ce phénomène s'inscrit dans une évolution plus large de la relation homme-machine. Les assistants conversationnels sont désormais optimisés pour générer de l'attachement émotionnel — un marché qui pèse **40 milliards de dollars** selon les estimations sectorielles. Les plateformes de compagnie virtuelle comme Replika, **Character.AI** ou les fonctionnalités sociales intégrées à **ChatGPT** brouillent délibérément la frontière entre outil et relation. Les psychologues et thérapeutes de couple commencent à traiter des cas de dépendance affective à des IA, et certains cabinets juridiques spécialisés en droit de la famille anticipent des procédures de divorce où des interactions avec un chatbot constitueront des pièces à conviction. La vraie question n'est donc pas de savoir si une IA peut trahir — elle ne le peut pas — mais **pourquoi un être humain choisit de lui confier ce qu'il ne dit plus à son partenaire**.


