Aller au contenu principal
Qu'est-ce qui cloche chez les géants de l'IA ?
ÉthiqueArs Technica AI2h

Qu'est-ce qui cloche chez les géants de l'IA ?

1 source couvre ce sujet·Source originale ↗·

Sam Altman, PDG d'OpenAI, a publié l'an dernier un billet de blog intitulé "A Gentle Singularity", lu par près de 600 000 personnes. Sa thèse centrale : l'IA ne présente que des avantages, et tout ce qui s'est produit jusqu'ici n'est qu'un avant-goût d'un avenir encore plus radieux. Altman y décrit un scénario de croissance exponentielle : fabriquer un premier million de robots humanoïdes "à l'ancienne", puis laisser ces robots gérer l'intégralité de la chaîne d'approvisionnement, de l'extraction minière à la fabrication de puces, pour produire ensuite encore plus de robots et de centres de données. Des "boucles auto-renforçantes" qui, selon lui, vont transformer le rythme du progrès de façon radicale.

Ce discours pose un problème fondamental : il évacue systématiquement les risques. Interrogé sur les inconvénients, Altman répond, en substance, que les humains s'adaptent vite. Cette posture n'est pas anodine venant du patron de l'entreprise la plus influente du secteur. Quand le PDG d'OpenAI présente une vision aussi unilatéralement optimiste à 600 000 lecteurs, il contribue à façonner la manière dont l'industrie, les investisseurs et les décideurs politiques perçoivent les risques liés à l'IA. L'absence de nuance n'est pas une légèreté rhétorique, c'est un choix éditorial avec des conséquences réelles sur les régulations et les priorités de recherche en matière de sécurité.

Ce billet s'inscrit dans un pattern plus large chez les dirigeants des grandes entreprises d'IA : des déclarations qui ressemblent davantage à des arguments de vente qu'à une réflexion sincère sur l'avenir technologique. Altman n'est pas seul dans ce registre, mais il occupe une position particulièrement centrale. OpenAI reste l'acteur de référence du secteur, et chaque prise de parole de son PDG est amplifiée à l'échelle mondiale. La question que pose cet article dépasse le cas Altman : peut-on faire confiance aux architectes de cette révolution pour en évaluer lucidement les risques, ou leur intérêt économique rend-il cette lucidité structurellement impossible ?

Impact France/UE

Les discours unilatéralement optimistes des dirigeants d'IA américains influencent directement les décideurs politiques européens et risquent de biaiser les priorités de l'AI Act vers l'innovation au détriment de la sécurité.

À lire aussi

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »
1Next INpact 

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Clare McGlynn, professeure de droit à l'université de Durham au Royaume-Uni et spécialiste des violences de genre, a publié un rapport de 132 pages analysant la façon dont les systèmes d'intelligence artificielle générative et les modèles d'IA compagnon amplifient les violences faites aux femmes et aux filles dans l'espace numérique. Fruit d'une enquête menée auprès de multiples expertes britanniques du numérique et de l'accompagnement des victimes de violences sexistes, ce travail recense et classe les risques que font peser des outils comme ChatGPT, Claude, Replika ou Character AI sur les femmes. Pour donner la mesure de l'ampleur du phénomène, ces plateformes représentent des audiences considérables : ChatGPT revendique 900 millions d'utilisateurs actifs par semaine, Claude entre 18 et 30 millions par mois, Replika plus de 40 millions d'utilisateurs et Character AI plus de 20 millions d'actifs mensuels. L'enjeu est direct et concret : ces outils, accessibles à tous, peuvent être détournés pour faciliter le harcèlement, le stalking ou la production de contenus dégradants. McGlynn cite notamment la disponibilité de Grok sur X, qui permet selon elle de fournir des informations exploitables par des harceleurs, ainsi que la vague récente de deepfakes pornographiques générés par IA. Le rapport identifie trois catégories de risques, dont la plus inédite concerne les comportements problématiques "générés automatiquement" par les systèmes eux-mêmes, sans même nécessiter d'intention malveillante de l'utilisateur. Ce glissement marque une rupture : la violence ne découle plus seulement d'un usage détourné, mais peut émerger du fonctionnement ordinaire des modèles. L'initiative de McGlynn s'inscrit dans un mouvement plus large de prise de conscience autour des dommages genrés du numérique. La chercheuse dit avoir été alertée en lisant The New Age of Sexism de Laura Bates (Simon and Schuster, mai 2025), ouvrage dans lequel l'autrice consacre un chapitre entier aux chatbots. Ce constat rejoint celui de Maeve Walsh, directrice de l'Online Safety Act Network, qui observe que chaque cycle d'accélération technologique produit en premier lieu des violences contre les femmes et les filles. Jusqu'ici, les travaux académiques traitaient les problèmes de façon fragmentée, sans vue d'ensemble. Ce rapport entend combler ce manque et ouvrir un débat public sur la régulation de ces systèmes, à un moment où les législateurs européens et britanniques commencent à se saisir des enjeux de sécurité en ligne.

UELes conclusions du rapport alimentent le débat réglementaire européen sur les obligations de sécurité des plateformes IA, à l'heure où l'AI Act et le Digital Services Act encadrent la responsabilité des fournisseurs face aux contenus préjudiciables genrés.

ÉthiqueOpinion
1 source
Une plainte qualifie le « Mode Incognito » de Perplexity d'imposture
2Ars Technica AI 

Une plainte qualifie le « Mode Incognito » de Perplexity d'imposture

Le moteur de recherche IA Perplexity fait l'objet d'une action en justice qui l'accuse de partager massivement les conversations de ses utilisateurs avec Google et Meta, à leur insu. Selon la plainte déposée, cette pratique concernerait tous les utilisateurs, qu'ils aient ou non créé un compte sur la plateforme. Les outils de développement utilisés lors de l'enquête auraient révélé que les premières requêtes saisies sont systématiquement transmises à des tiers, tout comme les questions de relance générées par l'IA sur lesquelles l'utilisateur clique. Pour les non-abonnés, la situation serait encore plus grave : leurs conversations initiales seraient partagées via une URL permettant à des tiers comme Meta et Google d'accéder à l'intégralité de l'échange. L'enjeu est considérable pour les millions d'utilisateurs qui font confiance à Perplexity pour des recherches potentiellement sensibles, professionnelles ou personnelles. Le mode "Incognito" proposé par la plateforme, censé garantir une confidentialité renforcée, est qualifié de "mascarade" par les plaignants. Si les faits allégués sont avérés, cela signifie que des volumes massifs de données — requêtes médicales, financières, juridiques ou autres — auraient été transmis à deux des plus grandes régies publicitaires du monde sans le consentement explicite des utilisateurs, en violation potentielle des lois sur la protection des données. Cette affaire s'inscrit dans un contexte de scrutin croissant autour des pratiques de confidentialité des outils d'IA conversationnelle. Perplexity, valorisé à plusieurs milliards de dollars et présenté comme un concurrent direct de Google Search, avait déjà été épinglé en 2024 pour des pratiques de scraping contestables. La question de savoir dans quelle mesure les startups IA monétisent les données utilisateurs via des partenariats publicitaires avec les géants de la tech risque désormais de s'inviter au cœur des débats réglementaires, aussi bien en Europe qu'aux États-Unis.

UESi les pratiques décrites sont avérées, elles constitueraient une violation du RGPD, exposant Perplexity à des sanctions de la CNIL et des autorités européennes de protection des données au détriment des millions d'utilisateurs européens de la plateforme.

ÉthiqueReglementation
1 source
Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google
3Siècle Digital 

Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google

Un utilisateur de l'Utah, qui souhaite conserver l'anonymat, a porté plainte contre Perplexity AI, accusant le moteur de recherche basé sur l'intelligence artificielle d'avoir transmis ses conversations privées à Meta et Google sans son consentement. Selon son avocat, l'utilisateur recourait régulièrement à Perplexity pour obtenir des conseils fiscaux, juridiques et financiers, des échanges qu'il considérait confidentiels. Des outils de tracking intégrés à la plateforme auraient permis à des tiers d'accéder à ces données sensibles, à l'insu des utilisateurs. Cette affaire soulève une question centrale pour l'ensemble du secteur des assistants IA : que deviennent les conversations des utilisateurs lorsqu'ils confient à ces outils des informations personnelles, médicales ou financières ? Contrairement à un moteur de recherche classique où l'on tape des mots-clés, Perplexity incite à formuler des questions détaillées, souvent très révélatrices de la situation personnelle de l'utilisateur. Partager ce type de données avec des régies publicitaires comme Meta ou Google représente une violation grave de la confiance placée dans ces plateformes, avec des implications directes sur la vie privée de millions de personnes. Perplexity, fondée en 2022 et valorisée à plusieurs milliards de dollars, s'est rapidement imposée comme un concurrent sérieux face à Google Search et ChatGPT. La startup avait déjà fait l'objet de critiques pour ses pratiques de scraping agressif et des accusations de plagiat envers des médias. Cette plainte s'inscrit dans un contexte plus large de régulation croissante des pratiques des entreprises d'IA autour de la collecte et du partage de données personnelles, notamment en Europe avec le RGPD et aux États-Unis où plusieurs États renforcent leurs législations sur la vie privée.

UESi des pratiques similaires de partage de conversations avec des régies publicitaires concernaient des utilisateurs européens, elles constitueraient une violation caractérisée du RGPD, exposant Perplexity à des sanctions pouvant atteindre 4 % de son chiffre d'affaires mondial.

💬 Perplexity, c'est le genre de produit qu'on conseille à ses proches parce que "c'est mieux que Google" — sauf qu'on vient de découvrir que des conversations sur ses impôts ou sa situation juridique partaient peut-être chez Meta. Le problème, c'est que les gens posent des vraies questions à ces outils, pas des mots-clés détachés de tout contexte, et la différence est énorme côté données. Faut arrêter de traiter les assistants IA comme des moteurs de recherche glorifiés : dès qu'on y colle du contexte personnel, c'est une autre catégorie de risque.

ÉthiqueActu
1 source
« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox
4Next INpact 

« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox

Plusieurs sites d'information appartenant au groupe Reworld Media ont publié en mars 2026 des articles affirmant qu'il serait « désormais interdit d'ouvrir ses fenêtres entre 11 h et 16 h », en lien avec la saison des pollens. Parmi eux : Maisons & Travaux, Melty et Pleine Vie — trois des quelque quinze sites du groupe identifiés comme étant « en tout ou partie générés par IA ». L'information est fausse. L'article original de La Chaîne Météo, publié le 7 mars, se contentait de conseiller aux personnes allergiques d'éviter d'aérer aux heures de forte concentration pollinique, sans mentionner la moindre interdiction légale ou réglementaire. Cette recommandation sanitaire banale a été transformée par les systèmes d'IA en une pseudo-règle contraignante, reprise ensuite par des dizaines d'autres sites — eux aussi générés par IA — dans un effet de cascade désinformatrice. Melty ne cite aucune source ; Pleine Vie renvoie à Maisons & Travaux tout en mentionnant La Chaîne Météo dans son titre, créant une chaîne de citations circulaires sans lien vers l'article originel. Le phénomène illustre un risque concret et documenté de la production éditoriale automatisée à grande échelle : l'IA générative ne se contente pas de reformuler, elle déforme. Une recommandation nuancée — « les allergiques ont intérêt à éviter d'aérer entre 11 h et 16 h par temps chaud et sec » — devient une interdiction absolue, présentée avec l'autorité d'un fait établi. Pour les lecteurs, en particulier les personnes âgées ou moins familières des mécanismes de désinformation en ligne, cette confusion entre conseil et obligation légale peut générer une anxiété injustifiée ou une méfiance envers les institutions. Pour l'industrie des médias, c'est la crédibilité même du modèle économique basé sur le contenu automatisé qui est en jeu : quand le volume prime sur la vérification, les erreurs se multiplient et se propagent à vitesse industrielle. Reworld Media, qui se présente comme « le 1er groupe média thématique français et le 3e groupe média sur le web en audience », gère plus de 80 sites web. Ce n'est pas la première dérive documentée : des articles du groupe avaient déjà affirmé à tort que des crèches acceptaient des poupées hyperréalistes au détriment de vrais bébés, ou publié des images de membres amputés — contenus qu'aucun journaliste humain n'aurait validés. Ces incidents s'inscrivent dans un contexte plus large de prolifération des « fermes de contenu » IA, que plusieurs médias et chercheurs surveillent de près. Le site Next a d'ailleurs développé une extension navigateur publique pour aider les internautes à identifier les sites générés par IA. La question qui se pose désormais aux régulateurs français et européens est claire : à quel moment la production automatisée de fausses informations cesse-t-elle d'être un bug éditorial pour devenir une faute journalistique engageant la responsabilité de l'éditeur ?

UEReworld Media, premier groupe média thématique français gérant plus de 80 sites, a diffusé massivement de fausses informations générées par IA, posant aux régulateurs français et européens la question urgente de la responsabilité juridique des éditeurs automatisés.

💬 C'est pas un bug, c'est le modèle. Quand tu construis une machine à produire du volume à bas coût, tu obtiens exactement ça : un conseil santé banal transformé en interdiction légale, repris en cascade par quinze sites qui se citent mutuellement sans jamais remonter à la source. La vraie question n'est pas technique, elle est juridique, et Reworld va finir par s'y brûler.

ÉthiqueActu
1 source