Aller au contenu principal
AI Girlfriend : avantages, limites et risques des relations avec une IA
SociétéLe Big Data2h

AI Girlfriend : avantages, limites et risques des relations avec une IA

1 source couvre ce sujet·Source originale ↗·

Les applications d'intelligence artificielle dites « AI girlfriends » connaissent une popularité croissante, portées par des plateformes comme Candy AI qui proposent des relations virtuelles personnalisables. Ces systèmes permettent à l'utilisateur de façonner entièrement la personnalité de son interlocuteur, ton, caractère, ambiance, et d'échanger librement, sans contrainte horaire ni risque de rejet. Les échanges peuvent inclure des messages spontanés simulant l'initiative (« tu me manques », « comment s'est passée ta matinée »), et les IA mémorisent les préférences stylistiques pour affiner progressivement leurs réponses. Certaines plateformes vont jusqu'à proposer des scénarios fictifs, rencontre imaginaire, relation à distance, pour renforcer l'immersion.

L'attrait principal réside dans la disponibilité permanente et l'absence de friction émotionnelle : l'IA ne coupe pas la parole, ne minimise pas les ressentis, et ne réagit pas avec froideur à une maladresse. Pour des personnes isolées, anxieuses socialement ou en quête de réconfort, cette accessibilité représente une valeur réelle. La fluidité des échanges, soulignée dans de nombreux retours d'utilisateurs, réduit la sensation de répétition mécanique que l'on associe habituellement aux chatbots. Mais ces mêmes caractéristiques portent leurs propres risques : une IA qui valide systématiquement peut renforcer des pensées négatives plutôt que les remettre en question, et des utilisateurs en situation de vulnérabilité psychologique sont particulièrement exposés à ce phénomène.

Le marché des compagnons virtuels s'inscrit dans une tendance plus large de monétisation de la solitude, amplifiée par la progression des grands modèles de langage capables de maintenir des conversations cohérentes sur la durée. La fragilité structurelle de ces services reste un angle mort : une mise à jour peut modifier radicalement la personnalité simulée, une fonctionnalité peut disparaître, et certains services ont été interrompus sans préavis, laissant leurs utilisateurs face à ce que certains décrivent comme une rupture brutale. La dépendance émotionnelle qui peut se développer envers un produit commercial soumis aux décisions d'une entreprise privée soulève des questions éthiques que le secteur commence à peine à formuler. À mesure que ces outils gagnent du terrain, la frontière entre soutien émotionnel et substitut pathologique à la relation humaine devient un enjeu de santé publique difficile à ignorer.

Impact France/UE

Les plateformes de compagnes virtuelles collectent des données personnelles sensibles soumises au RGPD, et les risques de dépendance émotionnelle qu'elles engendrent pourraient alimenter de futures réglementations européennes sur les IA à usage émotionnel.

À lire aussi

L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?
1The Information AI 

L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?

En février dernier, Alicia Kalogeropoulos, 35 ans, et son mari Alex ont appris que sa tumeur cérébrale était de retour. Diagnostiquée une première fois en 2018, Alicia avait alors subi une opération, avant de rejoindre trois ans plus tard un essai clinique pour un traitement oral qui avait réussi à contenir la maladie pendant plusieurs années. Mais la rémission avait ses limites. Face à la récidive, les oncologues du Memorial Sloan Kettering Cancer Center de New York ont recommandé une nouvelle chirurgie, suivie probablement d'une chimiothérapie et d'une radiothérapie. Son mari, PDG dans la tech, savait ce que les études lui avaient appris : ce protocole ne guérit pas. Il a alors ouvert ChatGPT et formulé une demande précise : concevoir un plan de traitement centré sur les thérapies n'affaiblissant pas le système immunitaire, en explorant toutes les voies d'attaque disponibles contre la tumeur. Ce recours à l'intelligence artificielle comme conseiller médical de second rang illustre une tension croissante entre l'urgence vécue par les patients et les limites institutionnelles de la médecine. Pour des familles confrontées à des diagnostics pronostiquement sombres, les chatbots d'IA représentent un accès immédiat à une synthèse d'une littérature médicale impossible à lire seul. L'enjeu n'est pas de remplacer le médecin, mais d'arriver en consultation avec des questions que personne d'autre n'aurait pensé à poser. Cette histoire s'inscrit dans un débat plus large sur la place de l'IA dans la prise de décision médicale. Des outils comme ChatGPT ou ses concurrents ne disposent pas de données patients en temps réel, ne peuvent pas commander d'examens ni évaluer des images médicales, et leurs recommandations ne sont pas validées cliniquement. Pourtant, à mesure que ces modèles intègrent davantage de littérature biomédicale, certains médecins commencent eux-mêmes à les utiliser comme aide à la décision. La question de fond reste entière : jusqu'où peut-on faire confiance à une IA pour explorer des options que des spécialistes humains, submergés de patients, n'auraient pas le temps d'envisager ?

SociétéOpinion
1 source
8 000 départs forcés : Le prix fort payé par les employés de Meta pour le futur de l’IA
2Le Big Data 

8 000 départs forcés : Le prix fort payé par les employés de Meta pour le futur de l’IA

Meta a annoncé jeudi la suppression d'environ 8 000 postes, soit 10 % de ses effectifs mondiaux. Un mémo interne diffusé le même jour confirme que les employés concernés, travaillant notamment sur Facebook, Instagram et WhatsApp, seront informés de leur départ d'ici le 20 mai. Parallèlement, le groupe renonce à pourvoir près de 6 000 postes initialement prévus. Après cette vague, Meta devrait retrouver un effectif d'environ 70 000 salariés, un niveau comparable à celui de 2023. Ces suppressions s'ajoutent aux 21 000 départs enregistrés entre 2022 et 2023, aux 3 600 licenciements de janvier 2025, et aux 1 500 postes déjà supprimés depuis début 2026, notamment dans la division Reality Labs. La direction de Meta ne mentionne pas explicitement l'intelligence artificielle dans son mémo, mais la logique financière est transparente : ces économies doivent absorber des investissements massifs dans ce domaine. Pour 2026, l'entreprise prévoit d'injecter entre 115 et 135 milliards de dollars dans ses infrastructures IA, soit près du double des dépenses de l'année précédente. Mark Zuckerberg a lui-même affirmé que certains projets autrefois portés par de grandes équipes peuvent désormais être menés par un seul ingénieur très expérimenté. Ce glissement de main-d'œuvre humaine vers des systèmes automatisés traduit une réorganisation structurelle profonde, et non un simple ajustement conjoncturel. Meta n'est pas un cas isolé : la tech américaine traverse une recomposition de fond. Microsoft a annoncé un dispositif de départ volontaire destiné à environ 7 % de ses effectifs américains, soit potentiellement 125 000 personnes. Son PDG Satya Nadella justifie cette décision par les gains de productivité déjà mesurés en interne, l'IA prenant en charge jusqu'à 30 % des tâches de programmation. Amazon et Oracle ont également engagé des réductions d'effectifs significatives ces derniers mois. Ce mouvement synchronisé dans les plus grandes entreprises technologiques mondiales marque un tournant : l'IA n'est plus seulement un outil complémentaire, elle devient un argument pour réduire la masse salariale, avec des conséquences sociales qui commencent à se chiffrer en dizaines de milliers d'emplois supprimés en quelques trimestres.

UELes filiales européennes de Meta et Microsoft sont soumises aux obligations légales de consultation des comités d'entreprise et aux protections sociales de l'UE, ce qui encadre juridiquement ces licenciements massifs sur le territoire européen.

💬 Ce que Zuckerberg a dit sur le seul ingénieur qui remplace une équipe, c'est pas du storytelling, c'est le modèle économique en temps réel. 8 000 postes supprimés pour financer 130 milliards d'infra IA, le calcul est simple et froid. Reste à voir combien de vagues il faudra avant que les 70 000 encore en poste réalisent qu'ils sont dans la même logique.

SociétéOpinion
1 source
Votre ado confie tout à l’IA ? Meta vous laisse enfin regarder
3Le Big Data 

Votre ado confie tout à l’IA ? Meta vous laisse enfin regarder

Meta a annoncé le lancement d'une nouvelle fonctionnalité de contrôle parental appelée "Insights", permettant aux parents de suivre les échanges entre leurs adolescents et l'assistant Meta AI. Disponible dès maintenant dans plusieurs pays anglophones, cet outil donne accès à un résumé hebdomadaire des grands thèmes abordés par les mineurs lors de leurs conversations avec l'IA sur les sept derniers jours. Les catégories proposées incluent l'école, le sport, les voyages, le divertissement, l'écriture, la santé et le bien-être. L'accès ne se fait pas mot à mot : les parents reçoivent une synthèse thématique, non une retranscription intégrale des échanges. Le déploiement à l'international est prévu dans les semaines à venir. Cette initiative répond à une préoccupation croissante autour de l'usage intensif des assistants IA par les adolescents, qui y confient parfois des sujets sensibles que leurs parents ignorent. En offrant une fenêtre partielle sur ces échanges, Meta cherche à rassurer les familles sans sacrifier complètement la vie privée des mineurs. L'outil est également conçu pour rester actif même lorsque l'IA refuse de répondre à certaines demandes : les parents peuvent voir qu'un sujet a été abordé, même si l'assistant n'a pas fourni de réponse directe. Sur les thématiques les plus délicates, notamment le suicide et l'automutilation, Meta prépare des alertes spécifiques pour prévenir les parents en temps réel si leur enfant tente d'aborder ces sujets avec l'IA. Cette annonce s'inscrit dans un contexte de pression croissante sur les géants du numérique pour mieux protéger les mineurs en ligne, alors que les législateurs américains et européens multiplient les initiatives de régulation. Meta, souvent accusé de négliger la sécurité des adolescents sur ses plateformes, avait déjà mis en place des comptes adolescents avec des restrictions intégrées. Une étude interne de l'entreprise avait pourtant suggéré que la supervision parentale n'avait qu'un impact limité sur l'usage excessif des réseaux sociaux chez les jeunes, ce qui n'a pas empêché le groupe de renforcer son dispositif. En collaboration avec le Cyberbullying Research Center, Meta prévoit également de proposer des "amorces de conversation" pour aider les parents à aborder le sujet de l'IA avec leurs enfants. La fonctionnalité Insights sera améliorée progressivement, sur la base des retours des familles et d'experts, dans une approche que Meta présente comme évolutive plutôt que définitive.

UELa fonctionnalité sera déployée internationalement dans les semaines à venir, potentiellement en France, et s'inscrit dans le contexte des débats européens sur la protection des mineurs face aux assistants IA.

SociétéOpinion
1 source
Le peuple n'aspire pas à l'automatisation
4The Verge AI 

Le peuple n'aspire pas à l'automatisation

Un sondage NBC News publié en avril 2026 place l'intelligence artificielle parmi les technologies les moins appréciées des Américains, avec un taux de popularité inférieur à celui de l'agence ICE et à peine au-dessus du niveau d'approbation du Parti démocrate ou de la guerre en Iran. Ce résultat est d'autant plus frappant que près des deux tiers des sondés déclarent avoir utilisé ChatGPT ou Copilot au cours du dernier mois. Quinnipiac confirme la tendance : plus de la moitié des Américains estiment que l'IA fera plus de mal que de bien, plus de 80 % s'en disent inquiets, et seulement 35 % s'y montrent enthousiastes. Chez la génération Z, le rejet est encore plus marqué : selon Gallup, seuls 18 % se disent optimistes face à l'IA, contre 27 % l'année précédente, tandis que 31 % expriment de la colère, contre 22 % un an plus tôt. Le phénomène dépasse les sondages : des élus locaux favorables aux data centers ont été battus aux urnes, d'autres ont vu leur domicile visé par des tirs. Le PDG d'OpenAI Sam Altman a lui-même été la cible d'un cocktail Molotov lancé contre sa maison. Ce fossé entre l'enthousiasme de l'industrie technologique et le rejet croissant du grand public constitue une rupture politique et sociale inédite. Satya Nadella, PDG de Microsoft, a reconnu publiquement que le secteur doit encore « mériter la permission sociale de consommer de l'énergie en prouvant qu'il fait le bien dans le monde ». Cette permission n'a clairement pas été obtenue. La résistance s'exprime désormais dans les urnes, dans les rues et dans une montée de la violence que des responsables comme Nilay Patel, rédacteur en chef de The Verge et animateur du podcast Decoder, condamnent sans ambiguïté, tout en pointant la responsabilité des élites dans le sentiment d'impuissance qui l'alimente. Ce contexte prend racine dans ce que Patel appelle le « software brain » : une manière de penser le monde héritée du numérique, qui réduit tout à des algorithmes, des bases de données et des boucles logiques. Marc Andreessen en avait posé les bases dès 2011 dans son célèbre article du Wall Street Journal, « Why software is eating the world ». L'IA a depuis turbocompressé cette logique, creusant l'écart entre ceux qui conçoivent les systèmes et ceux qui les subissent. Le discours ambiant des dirigeants du secteur n'arrange rien : Dario Amodei, PDG d'Anthropic, affirme publiquement que l'IA supprimera l'ensemble des emplois d'entrée de gamme, alimentant une forme de nihilisme que ni les politiques ni les entreprises technologiques ne semblent encore prêts à affronter sérieusement.

UELes tendances de rejet croissant de l'IA documentées aux États-Unis trouvent des échos similaires en Europe, où l'AI Act reflète des préoccupations citoyennes comparables sur l'emploi et la concentration du pouvoir technologique.

SociétéOpinion
1 source