Aller au contenu principal
SociétéLes Numériques IA7sem

Actualité : “Vos choix sont devenus une marchandise à acheter et vendre” : j'ai écouté l’étrange entretien entre Claude et Bernie Sanders, voici ce qu'il faut retenir

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 19 mars 2026, le sénateur américain Bernie Sanders a publié sur YouTube une conversation vocale avec Claude, le modèle d'intelligence artificielle développé par Anthropic. Format inédit : non pas une interview de journaliste, mais un échange direct entre un élu et une IA, via le mode vocal de l'application mobile, sur un sujet brûlant — ce que les systèmes d'IA savent de nous, et comment ces données sont exploitées.

L'initiative de Sanders s'inscrit dans sa rhétorique habituelle contre la concentration du pouvoir économique. En choisissant l'IA comme interlocuteur plutôt qu'un PDG de la Silicon Valley, il illustre une évolution du débat public : les modèles de langage sont désormais suffisamment accessibles pour devenir des outils de plaidoyer politique. Le choix de Claude — et non d'un concurrent comme ChatGPT — n'est pas anodin dans un contexte où Anthropic se positionne sur les questions de sécurité et d'éthique de l'IA.

Au cours de l'entretien, Sanders aborde frontalement la question de l'opacité des systèmes d'IA et de la marchandisation des comportements individuels. La formule retenue dans le titre — "vos choix sont devenus une marchandise à acheter et vendre" — résume une critique que le sénateur du Vermont porte depuis des années contre les GAFAM, désormais étendue aux acteurs de l'IA générative. Claude, de son côté, décrit le fonctionnement de ces systèmes de collecte et d'exploitation des données.

L'exercice soulève une question de fond : peut-on interroger une IA sur les dérives potentielles de l'IA elle-même sans obtenir une réponse biaisée par les intérêts de son créateur ? Cette tension entre transparence revendiquée et conflits d'intérêts structurels promet d'alimenter le débat sur la régulation des modèles de langage, alors que le Congrès américain peine à légiférer sur le sujet.

--- Note : l'article source est tronqué — certains détails (chiffres, citations exactes, contexte complet) n'étaient pas disponibles dans l'extrait fourni.

Impact France/UE

L'entretien renforce le débat politique sur la surveillance numérique et la monétisation des données personnelles, un sujet au cœur du RGPD et des discussions européennes sur la régulation des plateformes algorithmiques.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi
1Les Numériques IA 

Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi

Une étude publiée récemment et menée auprès de 1 372 participants révèle que 8 personnes sur 10 adoptent les réponses de ChatGPT sans les remettre en question — même lorsque ces réponses contiennent des erreurs délibérément introduites par les chercheurs. Plus troublant encore : les sujets exprimaient une plus grande confiance en leurs propres réponses après avoir suivi l'IA, y compris quand celle-ci se trompait manifestement. Ce phénomène, que les auteurs rapprochent de la notion de "pensée artificielle", dépasse le simple manque d'esprit critique. Il signale une forme d'externalisation cognitive massive : les utilisateurs ne vérifient plus, ils délèguent. Pour les secteurs où la précision est vitale — médecine, droit, éducation, journalisme — cette complaisance représente un risque systémique concret. L'IA ne renforce plus le jugement humain ; elle le remplace, avec l'assentiment de l'utilisateur. Ce résultat s'inscrit dans un débat qui monte depuis l'explosion de l'usage grand public des LLMs en 2023. Des travaux antérieurs avaient déjà documenté l'effet de "automation bias" — la tendance à faire confiance aux systèmes automatisés plutôt qu'à son propre raisonnement. Mais l'ampleur mesurée ici, 80 % de conformité même face à des erreurs flagrantes, dépasse les estimations précédentes. À mesure que ChatGPT, Gemini et leurs concurrents s'intègrent dans les outils de travail quotidiens, la question de la littératie IA devient urgente : savoir utiliser ces outils, c'est d'abord savoir leur résister.

UELes résultats renforcent l'urgence d'intégrer la littératie IA dans les cursus éducatifs européens et alimentent les débats sur les obligations de transparence et d'évaluation des risques prévues par l'AI Act.

SociétéOpinion
1 source
Actualité : Quand l'administration Trump confie les demandes de chômage à une IA
2Les Numériques IA 

Actualité : Quand l'administration Trump confie les demandes de chômage à une IA

Le département américain du Travail (DOL) a annoncé le déploiement d'une intelligence artificielle comme premier interlocuteur pour traiter l'ensemble de ses demandes citoyennes, soit 2,8 millions de dossiers par an répartis sur 26 programmes fédéraux. Parmi eux figurent les demandes d'allocations chômage, les plaintes liées à la sécurité au travail et les candidatures au Job Corps, programme de formation destiné aux jeunes défavorisés. Le système prendra en charge le tri, l'orientation et le traitement initial des requêtes avant toute intervention humaine. Cette décision touche directement des populations en situation de vulnérabilité — travailleurs licenciés, victimes d'accidents du travail, jeunes sans qualification — qui dépendent de ces prestations pour subsister. Confier la première ligne de contact à une IA soulève des questions concrètes sur les erreurs de traitement, les biais algorithmiques et la capacité du système à gérer des situations atypiques ou des personnes peu à l'aise avec les outils numériques. Pour les défenseurs des droits des travailleurs, le risque est que des dossiers légitimes soient rejetés ou retardés sans recours humain immédiat. Cette initiative s'inscrit dans la politique plus large de l'administration Trump de réduire les effectifs de la fonction publique fédérale, portée notamment par le DOGE d'Elon Musk. Plusieurs agences fédérales ont déjà subi des coupes massives de personnel, et l'automatisation par IA est présentée comme un substitut aux postes supprimés. Les syndicats de fonctionnaires et des élus démocrates ont alerté sur les risques pour la qualité du service public, tandis que l'administration défend des gains d'efficacité et des économies budgétaires significatives.

UECette décision américaine alimente le débat européen sur l'encadrement de l'IA dans les services publics, notamment dans le cadre de l'AI Act qui classe les systèmes d'IA traitant des prestations sociales comme applications à haut risque.

SociétéActu
1 source
Après ChatGPT et Claude, Perplexity lance son IA santé : ce qui change pour vos données médicales
3Frandroid 

Après ChatGPT et Claude, Perplexity lance son IA santé : ce qui change pour vos données médicales

Perplexity a lancé Perplexity Health, un outil d'IA générative dédié aux conseils de santé, rejoignant ainsi ChatGPT et Claude sur ce créneau. Cette initiative soulève des questions sur la gestion des données médicales des utilisateurs. Aucun détail technique supplémentaire n'est fourni dans l'extrait disponible.

UELe lancement d'outils IA santé par des acteurs américains soulève des questions de conformité RGPD pour les données médicales des utilisateurs européens.

SociétéOpinion
1 source
Après ChatGPT et Claude, Perplexity lance son IA santé : ce qui change pour vos données médicales
4Frandroid 

Après ChatGPT et Claude, Perplexity lance son IA santé : ce qui change pour vos données médicales

Perplexity a lancé Perplexity Health, un outil d'IA générative dédié aux conseils de santé, rejoignant ainsi ChatGPT et Claude sur ce segment. L'annonce soulève des questions sur la gestion des données médicales des utilisateurs. Aucun chiffre spécifique n'est mentionné dans l'extrait disponible.

UELe lancement de Perplexity Health interpelle les régulateurs européens sur la conformité RGPD et le traitement des données de santé, catégorie sensible sous le droit de l'UE.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour