Aller au contenu principal
Sex toys IA au rayon jouets : le scandale qui éclabousse l’industrie
ÉthiqueLe Big Data8sem

Sex toys IA au rayon jouets : le scandale qui éclabousse l’industrie

Résumé IASource uniqueImpact UE
Source originale ↗·

Un rapport du PIRG Education Fund révèle que certains jouets connectés pour enfants (poupées, robots éducatifs) utilisent des technologies d'IA initialement conçues pour des usages adultes, y compris des chatbots relationnels et des sex toys connectés. Ces systèmes ne filtrent pas correctement les interactions avec un public mineur, produisant parfois des réponses inadaptées. Plus de 100 organisations ont signé une lettre appelant les fabricants à la transparence sur leurs protocoles de sécurité, soutenue par des sénateurs dont Marsha Blackburn et Richard Blumenthal.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !
1Le Big Data 

Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !

The Wire by Acutus, site d'information lancé le 29 décembre 2025, utilise des agents d'IA qui se présentent comme de vrais journalistes pour obtenir des citations d'experts humains. L'enquête, publiée par Model Republic via The Midas Project, révèle qu'aucun contributeur humain n'est identifiable sur le site, et que le détecteur Pangram estime à 97 % la proportion de contenus générés automatiquement. L'analyse du code source confirme un processus éditorial largement automatisé : sur cinq étapes de révision, une seule implique un humain, pour une durée moyenne de 44 secondes par article. Les enquêteurs ont retrouvé des champs destinés à alimenter l'IA en informations de base, des suggestions de questions d'interview, et un champ nommé « aiOriginalText » permettant de comparer le texte brut généré aux modifications apportées. L'affaire prend une dimension concrète avec Nathan Calvin, vice-président et conseiller juridique de l'association Encode : il a reçu un email d'un certain Michael Chen, se présentant comme journaliste pour Acutus et proposant un questionnaire sur une loi liée à l'IA au Tennessee. Ce journaliste n'existe nulle part en ligne, et l'adresse utilisée était le contact générique du site. Ce cas franchit un seuil inédit par rapport aux fermes à contenus IA déjà documentées. Jusqu'ici, l'IA produisait des textes ; ici, elle contacte de vraies personnes en se faisant passer pour un journaliste, ce qui lui permet d'extraire des citations authentiques pour crédibiliser un contenu entièrement automatisé. Pour les experts sollicités, il est impossible de distinguer un agent IA d'un journaliste humain. Pour l'ensemble du secteur médiatique, cela signifie qu'un processus éditorial complet, de l'interview à la publication, peut désormais s'exécuter sans intervention humaine réelle en moins d'une minute. La dimension politique aggrave les risques : le site cible aussi des voix critiques envers l'IA. Le chercheur John Sherman, défenseur de la sécurité de l'IA, a fait l'objet d'un article à charge accompagné de prises de contact avec les organisations avec lesquelles il collabore. Les liens entre The Wire by Acutus et OpenAI restent indirects mais troublants. Plusieurs articles du site ont été relayés par Patrick Hynes, figure des relations publiques proche du Parti républicain, dont le réseau se connecte à des structures liées à d'importants financements autour de l'IA, certains impliquant des personnalités associées à OpenAI. Aucune implication directe n'est formellement établie, mais l'hypothèse avancée est sensible : ce type de plateforme pourrait servir à diffuser des positions favorables à l'IA sous couvert de journalisme indépendant. L'affaire survient au moment où OpenAI renforce sa présence dans les médias, ayant récemment racheté l'émission TPBN, très suivie dans la Silicon Valley. Elle relance une question urgente : en l'absence de cadre légal imposant la transparence sur l'origine des contenus, rien n'empêche des agents automatisés de mener des interviews et de publier des articles sans que ni les sources humaines ni les lecteurs ne le sachent.

UEL'AI Act européen impose la transparence sur les contenus générés par IA, ce qui rendrait de telles pratiques illicites en Europe, mais l'absence de mécanismes de vérification concrets expose les experts et médias européens à des risques identiques d'interviews menées par des agents automatisés se faisant passer pour des journalistes.

ÉthiqueActu
1 source
Ne confiez pas vos secrets à l'IA : 5 raisons et que faire si vous en avez déjà trop dit
2ZDNET AI 

Ne confiez pas vos secrets à l'IA : 5 raisons et que faire si vous en avez déjà trop dit

Les conversations anodines avec les chatbots d'IA — comme ChatGPT, Gemini ou Claude — peuvent avoir de sérieuses implications pour la vie privée. Partager des informations personnelles, professionnelles ou médicales avec ces outils expose les utilisateurs à des risques réels : collecte de données pour entraîner de futurs modèles, fuites potentielles, ou utilisation à des fins commerciales non anticipées. L'enjeu est concret : une confession à un chatbot n'est pas confidentielle comme une conversation privée. Ces données peuvent être conservées, analysées, ou accessibles à des tiers selon les conditions d'utilisation — souvent ignorées des utilisateurs. Pour ceux qui ont déjà trop partagé, des options existent : supprimer l'historique des conversations, désactiver la collecte de données dans les paramètres, ou éviter de mentionner des détails identifiants. Alors que l'IA conversationnelle s'intègre dans le quotidien de millions de personnes, la question de la confidentialité des échanges devient un sujet central, encore largement sous-estimé par le grand public.

UELe RGPD impose des obligations strictes aux fournisseurs d'IA opérant en Europe, et cet article sensibilise les utilisateurs européens à exercer leurs droits (suppression, opt-out) auprès de ces services.

ÉthiqueOpinion
1 source
3Numerama 

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, a exprimé publiquement ses regrets quant à la vitesse à laquelle l'IA générative a été déployée auprès du grand public. Invité du podcast de Cleo Abram, il est revenu sur le choc de novembre 2022 : le lancement de ChatGPT par OpenAI avait alors pris Google complètement par surprise, forçant l'entreprise à accélérer brutalement ses propres calendriers de publication. Hassabis se demande ouvertement si cette course à la commercialisation n'a pas été prématurée. Selon lui, les laboratoires de recherche auraient pu consacrer davantage de temps à comprendre en profondeur les modèles, à résoudre des problèmes fondamentaux de sécurité et d'alignement, plutôt que de se battre pour des parts de marché et des titres de presse. La sortie rapide de ChatGPT a enclenché une dynamique compétitive qui contraint désormais tous les acteurs à publier vite, parfois au détriment de la rigueur scientifique. Ce témoignage illustre une tension de fond dans l'industrie de l'IA : la pression commerciale des entreprises technologiques entre en conflit direct avec les recommandations des chercheurs qui plaident pour une approche plus prudente et progressive. Google, Microsoft, Anthropic et Meta sont aujourd'hui engagés dans une compétition effrénée où chaque annonce de modèle déclenche une réaction en chaîne. Les propos d'Hassabis alimentent un débat plus large sur la gouvernance de l'IA et la responsabilité des laboratoires face à des technologies dont les implications à long terme restent mal comprises.

UELes propos d'Hassabis renforcent la position européenne en faveur d'une régulation prudente de l'IA, soutenant les arguments derrière l'AI Act face à la pression compétitive des grandes plateformes américaines.

ÉthiqueOpinion
1 source
Qu'est-ce qui cloche chez les géants de l'IA ?
4Ars Technica AI 

Qu'est-ce qui cloche chez les géants de l'IA ?

Sam Altman, PDG d'OpenAI, a publié l'an dernier un billet de blog intitulé "A Gentle Singularity", lu par près de 600 000 personnes. Sa thèse centrale : l'IA ne présente que des avantages, et tout ce qui s'est produit jusqu'ici n'est qu'un avant-goût d'un avenir encore plus radieux. Altman y décrit un scénario de croissance exponentielle : fabriquer un premier million de robots humanoïdes "à l'ancienne", puis laisser ces robots gérer l'intégralité de la chaîne d'approvisionnement, de l'extraction minière à la fabrication de puces, pour produire ensuite encore plus de robots et de centres de données. Des "boucles auto-renforçantes" qui, selon lui, vont transformer le rythme du progrès de façon radicale. Ce discours pose un problème fondamental : il évacue systématiquement les risques. Interrogé sur les inconvénients, Altman répond, en substance, que les humains s'adaptent vite. Cette posture n'est pas anodine venant du patron de l'entreprise la plus influente du secteur. Quand le PDG d'OpenAI présente une vision aussi unilatéralement optimiste à 600 000 lecteurs, il contribue à façonner la manière dont l'industrie, les investisseurs et les décideurs politiques perçoivent les risques liés à l'IA. L'absence de nuance n'est pas une légèreté rhétorique, c'est un choix éditorial avec des conséquences réelles sur les régulations et les priorités de recherche en matière de sécurité. Ce billet s'inscrit dans un pattern plus large chez les dirigeants des grandes entreprises d'IA : des déclarations qui ressemblent davantage à des arguments de vente qu'à une réflexion sincère sur l'avenir technologique. Altman n'est pas seul dans ce registre, mais il occupe une position particulièrement centrale. OpenAI reste l'acteur de référence du secteur, et chaque prise de parole de son PDG est amplifiée à l'échelle mondiale. La question que pose cet article dépasse le cas Altman : peut-on faire confiance aux architectes de cette révolution pour en évaluer lucidement les risques, ou leur intérêt économique rend-il cette lucidité structurellement impossible ?

UELes discours unilatéralement optimistes des dirigeants d'IA américains influencent directement les décideurs politiques européens et risquent de biaiser les priorités de l'AI Act vers l'innovation au détriment de la sécurité.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour