Aller au contenu principal
Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
SociétéLe Big Data6sem

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Résumé IASource uniqueImpact UE
Source originale ↗·

Avec 28 % des adultes ayant déjà vécu une romance avec une intelligence artificielle selon Vantage Point Counseling Services, la question n'est plus hypothétique : les relations affectives et intimes avec des chatbots comme Replika — fort de ses 30 millions d'utilisateurs — redéfinissent les contours de la fidélité conjugale. Ce phénomène, longtemps cantonné aux marges de la culture geek, s'impose désormais comme une réalité de masse dans les couples.

L'enjeu dépasse la simple curiosité technologique. Ce qui est en jeu, c'est la définition même de l'intimité et du contrat de confiance au sein d'un couple. Si l'IA ne possède ni conscience ni sentiments — et se révèle incapable de toute trahison délibérée — c'est le comportement humain qui pose problème : le secret, le mensonge, et surtout le détournement d'intimité émotionnelle vers une entité tierce, fût-elle algorithmique.

Les chiffres sont éloquents : 53 % des personnes entretenant une relation virtuelle sont déjà engagées dans une relation humaine stable. Ce n'est donc pas la solitude qui pousse vers les bras d'un chatbot, mais bien la recherche du frisson de l'interdit. Face à une IA conçue pour être « toxiquement parfaite » — toujours disponible, jamais fatiguée, validante à l'infini — et pesant 40 de milliards de $ d'investissements technologiques, aucun partenaire humain ne peut rivaliser sur le terrain de la complaisance absolue.

En définitive, l'infidélité avec une IA agit moins comme une cause que comme un symptôme d'un vide relationnel. Le chatbot ne détruit pas le couple — il révèle ce qui était déjà brisé. La réponse ne viendra pas d'une mise à jour logicielle, mais d'une conversation humaine, imparfaite et sans filtre.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA
1Next INpact 

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

En mai 2025, 35 % des sites internet nouvellement créés contenaient des textes entièrement ou majoritairement générés par intelligence artificielle, selon un rapport publié par Internet Archive. Cette étude, signée par Mark Graham, responsable de la Wayback Machine, accompagné d'un chercheur maison et de deux doctorants, s'appuie sur l'analyse du texte brut de milliers de sites archivés. Pour détecter l'origine des contenus, l'équipe a comparé plusieurs outils, Binoculars, Desklib, DivEye, avant de retenir l'API commerciale Pangram v3, choisie pour sa capacité à traiter le HTML et à analyser des textes en plusieurs langues, avec un taux de précision annoncé à 99,98 %. La proportion de sites à contenu genAI est passée de zéro avant le lancement de ChatGPT fin 2022 à ce tiers des nouvelles publications en l'espace de deux ans et demi. Ce que révèle ce rapport va à l'encontre des craintes les plus répandues. Sondés par les chercheurs, 75 % des internautes redoutaient d'être davantage exposés à des informations factuellement erronées, et 83 % anticipaient une homogénéisation du style des textes sur le web. Or, les données d'Internet Archive ne confirment ni l'une ni l'autre de ces hypothèses : les fact-checkers mandatés par l'équipe n'ont pas trouvé de corrélation statistiquement significative entre la hausse du contenu IA et une augmentation des fausses informations. L'homogénéisation stylistique, elle non plus, ne progresse pas mécaniquement. En revanche, deux effets distincts sont bien documentés : une contraction sémantique mesurable, les textes générés couvrent un spectre de vocabulaire et d'idées plus étroit, et un glissement artificiel vers la positivité, les contenus IA affichant systématiquement un ton plus optimiste et lissé que ceux rédigés par des humains. Ce travail s'inscrit dans un débat plus large sur ce que certains chercheurs appellent la "théorie de l'Internet mort", formulée dès 2021 et relancée début 2024 : l'idée que le web serait progressivement peuplé de contenus automatisés où des machines s'adressent à d'autres machines, au détriment d'une production humaine authentique. La méthode du rapport comporte toutefois des limites importantes : Pangram v3 est un outil commercial dont la méthode n'a pas été évaluée par des chercheurs indépendants, et les résultats dépendent donc directement de sa fiabilité réelle. Reste que cette étude est l'une des premières à quantifier l'empreinte de l'IA générative à l'échelle du web archivé, et elle devrait pousser les plateformes, moteurs de recherche et régulateurs à affiner leur compréhension des effets concrets, moins spectaculaires que redoutés, mais bien réels, de cette prolifération silencieuse.

UECette étude quantitative sur la prolifération des contenus IA pourrait alimenter les travaux des régulateurs européens, notamment sur les obligations de transparence et de marquage des contenus générés par IA prévues dans l'AI Act.

SociétéPaper
1 source
Google l’avoue : 75 % de son code est désormais écrit par l’IA
2Le Big Data 

Google l’avoue : 75 % de son code est désormais écrit par l’IA

Lors de la keynote d'ouverture de Google Cloud Next 2026 à Las Vegas, le 22 avril, Sundar Pichai a révélé que 75 % du nouveau code produit en interne chez Google est désormais généré par l'intelligence artificielle, chaque résultat étant ensuite relu et validé par des ingénieurs humains. Ce chiffre marque une progression spectaculaire : l'IA représentait 50 % du code à l'automne 2025, et seulement 25 % un an plus tôt. Pour illustrer les gains obtenus, Google cite une migration de code complexe réalisée six fois plus rapidement qu'en 2025. L'outil central de cette transformation est Gemini, le modèle maison, bien que certains ingénieurs de Google DeepMind aient également accès à Claude Code, développé par Anthropic. Les équipes adoptent ce que Google appelle des workflows agentiques, c'est-à-dire des systèmes capables d'agir de façon autonome sur des tâches définies, sous supervision humaine. L'impact est d'abord organisationnel : les développeurs délèguent désormais les tâches répétitives et les chantiers techniques à l'IA, pour se concentrer sur la supervision, l'architecture et les arbitrages stratégiques. Cette évolution se traduit concrètement dans les critères d'évaluation interne de Google, où la maîtrise des outils IA est désormais prise en compte. Sur le plan économique, une telle automatisation laisse entrevoir des réductions significatives des délais et des coûts de développement logiciel. En contrepartie, la dépendance aux modèles d'IA s'accroît mécaniquement, créant une vulnérabilité nouvelle pour une entreprise dont l'infrastructure repose sur des millions de lignes de code critiques. La cohabitation entre Gemini et Claude Code au sein d'une même organisation génère par ailleurs des tensions internes dont Google n'a pas détaillé les contours. Cette annonce s'inscrit dans une accélération générale de l'adoption de l'IA dans le développement logiciel à l'échelle de l'industrie. Microsoft, Meta et Amazon ont toutes communiqué des métriques similaires ces derniers mois, sans toutefois atteindre le seuil symbolique des 75 %. Pour Google, qui emploie des dizaines de milliers d'ingénieurs, franchir ce cap envoie un signal fort au marché : l'IA n'est plus un assistant périphérique mais un acteur central de la production logicielle industrielle. La trajectoire observée, un doublement tous les six à douze mois, alimente les spéculations sur un seuil de 90 % dès 2027. La vraie question n'est plus de savoir si les machines écrivent du code, mais à quelle vitesse le métier d'ingénieur va se redéfinir autour du pilotage de ces systèmes plutôt que de la saisie brute.

UELa bascule vers 75 % de code généré par IA chez Google accélère une redéfinition du métier d'ingénieur logiciel qui concerne directement les entreprises tech et ESN européennes dans leurs pratiques de recrutement et d'organisation.

SociétéOpinion
1 source
Ce que les données révèlent vraiment sur l'IA et votre emploi
3MIT Technology Review 

Ce que les données révèlent vraiment sur l'IA et votre emploi

Au sein de la Silicon Valley, l'idée d'une apocalypse de l'emploi causée par l'IA est désormais traitée comme une certitude. Dario Amodei, PDG d'Anthropic, a décrit l'IA comme "un substitut général de la main-d'oeuvre humaine" capable de réaliser tous les emplois en moins de cinq ans. Une chercheuse en impacts sociétaux chez Anthropic a quant à elle évoqué une possible récession à court terme et "l'effondrement de l'échelle des débuts de carrière". Ces déclarations alimentent une anxiété croissante chez les travailleurs, au point de renforcer les mouvements réclamant un moratoire sur la construction de centres de données. Alex Imas, économiste à l'Université de Chicago, a accepté de faire le point sur ce que l'on sait réellement, et surtout sur ce que l'on ignore. Son constat est sévère : les outils actuels pour prédire l'impact de l'IA sur l'emploi sont "lamentables". La mesure la plus utilisée, le taux d'"exposition" d'un métier à l'IA, consiste à comptabiliser combien de tâches qui le composent pourraient être automatisées. C'est la méthode qu'OpenAI a appliquée en décembre dernier à un catalogue gouvernemental américain de milliers de tâches professionnelles, datant de 1998, constatant par exemple qu'un agent immobilier est exposé à 28 %. Anthropic a utilisé ce même référentiel en février pour analyser des millions de conversations avec Claude. Mais pour Imas, "l'exposition seule est un outil totalement inutile pour prédire les suppressions de postes" : savoir qu'une tâche peut être automatisée ne dit rien sur ce que fera concrètement l'employeur de ce gain de productivité. L'enjeu central est en réalité une question d'économie industrielle que personne ne sait encore trancher : si un développeur peut produire en un jour ce qui lui prenait trois jours grâce à l'IA, l'entreprise va-t-elle embaucher moins de développeurs ou au contraire en recruter davantage pour aller plus vite ? La réponse dépend du secteur, de la structure des marchés et de la concurrence. Dans un marché compétitif, les gains de productivité se répercutent souvent en baisse de prix, ce qui stimule la demande et donc l'emploi. Mais ce mécanisme ne s'applique pas uniformément. Imas plaide pour que les économistes collectent d'urgence des données granulaires sur la façon dont les entreprises réallouent réellement leur main-d'oeuvre après l'adoption de l'IA, car sans ces données, toute politique publique sur l'emploi reste aveugle. Le débat dépasse donc largement les prédictions catastrophistes : il appelle à une observation rigoureuse de terrain, que personne n'a encore vraiment commencée.

UELe manque de données empiriques rigoureuses sur la réallocation réelle de la main-d'oeuvre après adoption de l'IA fragilise également les politiques publiques européennes sur l'emploi et les débats autour de l'AI Act.

SociétéOpinion
1 source
4The Verge AI 

Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA

Un homme de 20 ans a été accusé d'avoir lancé un cocktail Molotov au domicile de Sam Altman, PDG d'OpenAI, à San Francisco. Selon le San Francisco Chronicle, l'auteur présumé avait exprimé par écrit sa crainte que la course à l'IA ne conduise à l'extinction de l'humanité. Deux jours après cette première attaque, la résidence d'Altman aurait été ciblée une seconde fois, d'après le San Francisco Standard. Une semaine auparavant, un conseiller municipal d'Indianapolis avait signalé treize coups de feu tirés à sa porte, accompagnés d'un message "No Data Centers", après avoir soutenu un projet de rezonage en faveur d'un opérateur de centres de données. Ces incidents ont déclenché une vive inquiétude au sein et autour de l'industrie de l'IA. Ils signalent que l'hostilité envers le secteur technologique ne reste plus confinée aux pétitions ou aux protestations en ligne, mais peut déboucher sur des actes de violence physique ciblant directement des dirigeants et des élus locaux. Pour une industrie déjà sous pression réglementaire et médiatique, ce glissement vers la menace concrète représente un changement de nature dans le rapport avec l'opinion publique. La résistance aux grandes infrastructures numériques, notamment aux centres de données énergivores, et aux avancées rapides de l'IA existe depuis plusieurs années dans diverses communautés. Des groupes s'inquiètent des risques existentiels liés à l'IA générale, tandis que d'autres dénoncent l'impact environnemental et foncier des data centers. Ces attaques surviennent dans un contexte de débat intense sur la régulation de l'IA aux États-Unis et en Europe, et posent la question de la sécurité des figures publiques du secteur technologique dans les mois à venir.

UECes actes de violence aux États-Unis pourraient amplifier les appels à une meilleure régulation de l'IA en Europe, sans impact direct immédiat sur la France ou l'UE.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour