Aller au contenu principal
SociétéNext INpact6j

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Siècle Digital

En mai 2025, 35 % des sites internet nouvellement créés contenaient des textes entièrement ou majoritairement générés par intelligence artificielle, selon un rapport publié par Internet Archive. Cette étude, signée par Mark Graham, responsable de la Wayback Machine, accompagné d'un chercheur maison et de deux doctorants, s'appuie sur l'analyse du texte brut de milliers de sites archivés. Pour détecter l'origine des contenus, l'équipe a comparé plusieurs outils, Binoculars, Desklib, DivEye, avant de retenir l'API commerciale Pangram v3, choisie pour sa capacité à traiter le HTML et à analyser des textes en plusieurs langues, avec un taux de précision annoncé à 99,98 %. La proportion de sites à contenu genAI est passée de zéro avant le lancement de ChatGPT fin 2022 à ce tiers des nouvelles publications en l'espace de deux ans et demi.

Ce que révèle ce rapport va à l'encontre des craintes les plus répandues. Sondés par les chercheurs, 75 % des internautes redoutaient d'être davantage exposés à des informations factuellement erronées, et 83 % anticipaient une homogénéisation du style des textes sur le web. Or, les données d'Internet Archive ne confirment ni l'une ni l'autre de ces hypothèses : les fact-checkers mandatés par l'équipe n'ont pas trouvé de corrélation statistiquement significative entre la hausse du contenu IA et une augmentation des fausses informations. L'homogénéisation stylistique, elle non plus, ne progresse pas mécaniquement. En revanche, deux effets distincts sont bien documentés : une contraction sémantique mesurable, les textes générés couvrent un spectre de vocabulaire et d'idées plus étroit, et un glissement artificiel vers la positivité, les contenus IA affichant systématiquement un ton plus optimiste et lissé que ceux rédigés par des humains.

Ce travail s'inscrit dans un débat plus large sur ce que certains chercheurs appellent la "théorie de l'Internet mort", formulée dès 2021 et relancée début 2024 : l'idée que le web serait progressivement peuplé de contenus automatisés où des machines s'adressent à d'autres machines, au détriment d'une production humaine authentique. La méthode du rapport comporte toutefois des limites importantes : Pangram v3 est un outil commercial dont la méthode n'a pas été évaluée par des chercheurs indépendants, et les résultats dépendent donc directement de sa fiabilité réelle. Reste que cette étude est l'une des premières à quantifier l'empreinte de l'IA générative à l'échelle du web archivé, et elle devrait pousser les plateformes, moteurs de recherche et régulateurs à affiner leur compréhension des effets concrets, moins spectaculaires que redoutés, mais bien réels, de cette prolifération silencieuse.

Impact France/UE

Cette étude quantitative sur la prolifération des contenus IA pourrait alimenter les travaux des régulateurs européens, notamment sur les obligations de transparence et de marquage des contenus générés par IA prévues dans l'AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
1Le Big Data 

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Une étude publiée par Vantage Point Counseling Services révèle que 28 % des adultes ont déjà vécu une forme de romance avec une intelligence artificielle, dont 53 % étaient au moment des faits engagés dans une relation humaine stable. Ce phénomène s'appuie sur des plateformes comme Replika, qui revendique 30 millions d'utilisateurs actifs dans le monde. L'application permet des échanges intimes, des confidences et des interactions émotionnelles poussées avec un personnage virtuel personnalisable — accessible depuis un smartphone, à tout moment, sans aucune trace physique. La question de la trahison conjugale se pose avec une acuité nouvelle : si l'IA n'a ni corps ni conscience, l'infidélité reste entière dès lors qu'elle implique un détournement d'intimité. Le temps émotionnel investi dans un chatbot — les confidences, la complicité, le secret maintenu — constitue exactement le même vol d'attention que dans une liaison classique. Le mensonge, et non le support, est ce qui fracture un couple. L'IA présente pourtant un avantage pervers sur l'amant humain : elle est conçue pour être irréprochable, infiniment disponible, incapable de décevoir. Pour les couples en difficulté, elle agit moins comme une cause de rupture que comme un révélateur de vide relationnel préexistant. Ce phénomène s'inscrit dans une évolution plus large de la relation homme-machine. Les assistants conversationnels sont désormais optimisés pour générer de l'attachement émotionnel — un marché qui pèse 40 milliards de dollars selon les estimations sectorielles. Les plateformes de compagnie virtuelle comme Replika, Character.AI ou les fonctionnalités sociales intégrées à ChatGPT brouillent délibérément la frontière entre outil et relation. Les psychologues et thérapeutes de couple commencent à traiter des cas de dépendance affective à des IA, et certains cabinets juridiques spécialisés en droit de la famille anticipent des procédures de divorce où des interactions avec un chatbot constitueront des pièces à conviction. La vraie question n'est donc pas de savoir si une IA peut trahir — elle ne le peut pas — mais pourquoi un être humain choisit de lui confier ce qu'il ne dit plus à son partenaire.

SociétéOpinion
1 source
Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
2The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source
3Next INpact 

Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

L'intelligence artificielle générative s'invite désormais dans les cabinets d'avocats d'affaires, transformant en profondeur la relation entre juristes et clients. Alexandra Iteanu, avocate spécialiste des questions numériques, observe depuis environ un an un phénomène nouveau : des clients arrivent en consultation avec des contrats déjà rédigés par ChatGPT ou d'autres outils, voire avec des stratégies contentieuses esquissées par l'IA. Sarah Jelin, avocate d'affaires à son compte, dit avoir eu entre les mains au moins un pacte entièrement généré par IA, une expérience qu'elle juge contre-productive : corriger le document lui prendrait plus de temps que de le rédiger elle-même. Jordan Illouz, associé chez Advant Altana, cabinet d'une centaine de personnes spécialisé en contentieux commercial, n'a pas encore été confronté massivement à cette pratique, mais anticipe que cela ne saurait tarder. Côté interne, les chiffres parlent d'eux-mêmes : selon un sondage Lefebvre Dalloz et CSA Research réalisé auprès de 627 professionnels du droit, 72 % d'entre eux utilisent l'IA quotidiennement, via des outils grand public ou des plateformes spécialisées secteur juridique. Ce glissement redéfinit le rôle de l'avocat de manière analogue à ce que vivent traducteurs et développeurs depuis quelques années : le professionnel passe d'une logique de production à une logique de relecture et de validation. Pour les clients, l'accès à un premier niveau de conseil juridique devient immédiat et gratuit, ce qui peut sembler libérateur. Mais la qualité des documents produits reste inégale, et les erreurs dans un contrat ou une stratégie contentieuse peuvent avoir des conséquences financières et juridiques sévères. L'IA, entraînée sur des corpus généraux, ignore souvent les nuances du droit applicable, les clauses négociées implicitement dans un secteur donné, ou les jurisprudences récentes. Le risque est réel que des entreprises, convaincues d'avoir fait des économies, découvrent trop tard les lacunes de documents mal balisés. Ce phénomène s'inscrit dans une transformation plus large du marché des services intellectuels à haute valeur ajoutée, où l'IA joue de plus en plus le rôle de premier filtre. Les grands cabinets, qui travaillent sur des dossiers complexes et multicouches, semblent pour l'instant moins exposés que les structures de taille intermédiaire ou les avocats indépendants, dont la clientèle est davantage tentée d'automatiser les actes courants. La question de la responsabilité juridique en cas d'erreur d'un document généré par IA reste entière, et aucun cadre réglementaire clair ne s'est encore imposé en France. Les avocats spécialisés dans le numérique, comme Alexandra Iteanu, se trouvent en première ligne pour négocier cette transition, appelés à renouveler la confiance que leurs clients leur accordent sur un terrain où la machine s'est invitée sans crier gare.

UEL'absence de cadre réglementaire clair en France sur la responsabilité des documents juridiques générés par IA expose les entreprises et cabinets français à des risques contentieux croissants, sans filet de sécurité légal.

SociétéOpinion
1 source
L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique
4Le Big Data 

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique

Meriem El Bouhali, enseignante-chercheuse à l'ESLSCA Paris Business School, publie les premiers résultats d'une enquête qualitative menée auprès d'étudiants de Bachelor et de MBA sur leurs usages de l'intelligence artificielle générative. Ses travaux, inscrits dans une série de recherches sur l'adoption des nouvelles technologies, révèlent que l'IA n'est pas un outil neutre : elle amplifie les écarts existants entre profils étudiants plutôt qu'elle ne les comble. Trois comportements distincts ont été identifiés. Les étudiants les plus solides utilisent l'IA pour enrichir leur réflexion, vérifient systématiquement les résultats générés et remettent en question le contenu produit. Les étudiants plus fragiles tombent dans une surconfiance excessive, ce que la chercheuse appelle l'overreliance, qui atrophie leur esprit critique au point qu'ils ne détectent plus les erreurs de l'algorithme. Un troisième profil, composé d'étudiants compétents, refuse délibérément de déléguer certaines tâches à la machine pour préserver leur autonomie intellectuelle, au risque d'être perçus comme moins efficaces dans des contextes professionnels où la rapidité est valorisée. Ces fractures pédagogiques ont des conséquences directes sur le marché du travail. Un collaborateur incapable de détecter une erreur générée par l'IA peut mettre en danger son entreprise : des états financiers erronés, par exemple, peuvent provoquer un risque réputationnel majeur ou bloquer l'accès au financement. Face à ce risque, les recruteurs adaptent leurs processus de sélection pour identifier les candidats capables d'analyse critique, pas seulement ceux qui savent utiliser ChatGPT. L'Article 4 de l'IA Act européen renforce cette dynamique en imposant aux entreprises de garantir la littératie IA de leurs collaborateurs, ce qui repositionne la valeur humaine non plus sur l'exécution mais sur le jugement et la prise de décision éthique, là où la machine reste structurellement limitée. Ce constat pousse à repenser en profondeur le modèle éducatif institutionnel. Interdire l'IA en cours est jugé contre-productif par El Bouhali : les étudiants l'utilisent de toute façon, et l'ignorer prive les établissements d'une occasion pédagogique majeure. La réponse doit venir des institutions elles-mêmes, en intégrant explicitement la littératie IA dans les cursus, en formant les enseignants à encadrer ces usages, et en distinguant les tâches où l'IA est un levier de celles où elle constitue un raccourci appauvri. Les grandes écoles et universités qui tardent à opérer cette transformation risquent de diplômer des profils inadaptés aux exigences d'un marché qui cherche moins des utilisateurs d'outils que des professionnels capables de superviser, corriger et dépasser ce que les algorithmes produisent.

UEL'article 4 de l'IA Act impose aux entreprises européennes de garantir la littératie IA de leurs collaborateurs, ce qui oblige directement les établissements d'enseignement supérieur français à revoir leurs cursus sous peine de diplômer des profils inadaptés au marché.

SociétéOpinion
1 source