Aller au contenu principal
Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms
ÉthiqueThe Decoder7h

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

1 source couvre ce sujet·Source originale ↗·

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude.

Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine.

L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

Impact France/UE

La prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 Le point de vue du dev

On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

À lire aussi

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
1Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente actuellement aux États-Unis une fonctionnalité qui réécrit automatiquement, via intelligence artificielle générative, les titres des articles et pages web apparaissant dans ses résultats de recherche. C'est The Verge qui a révélé l'existence de ce test après avoir constaté que plusieurs de ses propres articles affichaient dans Google des titres que sa rédaction n'avait jamais rédigés. Un article intitulé « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » s'est ainsi retrouvé réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement entendre que The Verge en ferait la promotion. Interrogés, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à plus grande échelle. Selon leurs explications, l'objectif est d'identifier sur une page le contenu susceptible de constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que cette réécriture algorithmique se fait sans aucune indication visible pour l'internaute, et produit parfois des titres qui trahissent le sens original, voire le contredisent. Pour les éditeurs et médias, l'enjeu est considérable : leurs titres, soigneusement formulés pour refléter leur ligne éditoriale, peuvent être remplacés par une version déformée sans leur consentement ni même leur information. The Verge dénonce une atteinte directe à sa capacité à promouvoir son propre travail de manière honnête, soulignant que sa rédaction investit précisément du temps pour éviter le clickbait, une démarche que Google semble court-circuiter en imposant ses propres formulations. Mallory De Leon a certes précisé qu'un éventuel produit final n'utiliserait pas d'IA générative, sans expliquer comment Google envisagerait alors de réécrire des titres autrement. Cette révélation survient dans un contexte déjà tendu entre Google et les médias sur la question des contenus générés ou altérés par IA. The Verge avait documenté à deux reprises ces derniers mois des cas où l'algorithme de recommandation Discover de Google « hallucinait » des titres racoleurs et erronés pour ses articles. La pratique de réécriture des titres n'est pas entièrement nouvelle, Google ajuste les titres affichés dans ses résultats depuis des années via des règles heuristiques, mais le recours à l'IA générative représente un saut qualitatif dans la capacité de déformation du message original. Si ce test devait être généralisé, il soulèverait des questions fondamentales sur le contrôle éditorial à l'ère des moteurs de recherche pilotés par IA, et potentiellement des recours juridiques de la part d'éditeurs dont la réputation pourrait être affectée par des titres qu'ils n'ont pas écrits.

UELes éditeurs et médias français pourraient invoquer la directive européenne sur les droits voisins pour contester cette réécriture non consentie de leurs titres dans les résultats de recherche Google.

ÉthiqueOutil
1 source
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
2Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente discrètement une fonctionnalité qui réécrit automatiquement les titres des articles et pages web apparaissant dans ses résultats de recherche, en s'appuyant sur l'intelligence artificielle générative. C'est The Verge qui a mis au jour cette pratique après que plusieurs membres de sa rédaction ont constaté que des titres qu'ils n'avaient jamais rédigés apparaissaient dans Google Search à la place des leurs. L'exemple le plus frappant : le titre complet « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » a été réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement croire que The Verge promouvait ce type d'outil. Contactés par le média, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à grande échelle. L'objectif affiché est d'identifier, dans le contenu d'une page, ce qui pourrait constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que ces titres réécrits par l'IA sont inexacts et trompeurs, et qu'ils apparaissent sans aucune mention indiquant que Google a substitué ses propres mots à ceux des auteurs originaux. Pour les éditeurs, c'est une atteinte directe à leur ligne éditoriale et à leur capacité à présenter leur propre travail. The Verge souligne avoir investi un effort considérable pour rédiger des titres honnêtes et engageants, sans recourir au clickbait, or l'IA de Google produit précisément l'effet inverse : des formulations tronquées ou détournées qui dénaturent le sens de l'article. Au-delà de l'impact éditorial, la question de la responsabilité juridique se pose : si un titre réécrit par Google induit en erreur un lecteur ou nuit à la réputation d'un média, qui en est responsable ? Ce n'est pas la première fois que Google se retrouve sous le feu des critiques pour ses pratiques de réécriture algorithmique. The Verge avait déjà documenté, à deux reprises ces derniers mois, que l'IA intégrée à Discover, l'algorithme de recommandation de Google, générait des titres racoleurs et factuellement erronés, sans que les éditeurs concernés en soient informés. Cette nouvelle expérience s'inscrit dans une tendance plus large : Google cherche à contrôler toujours davantage la façon dont le contenu tiers est présenté dans son écosystème, au détriment de l'autonomie éditoriale des producteurs de contenu. Mallory De Leon a précisé que si un produit commercial devait naître de cette expérience, il n'utiliserait pas d'IA générative, sans expliquer par quel autre moyen Google remplacerait des titres. La tension entre Google et la presse est ainsi portée à un niveau supplémentaire, dans un contexte où les éditeurs dépendent encore massivement du moteur de recherche pour leur audience.

UELes éditeurs français et européens, déjà fragilisés économiquement, sont exposés à des réécritures de titres non autorisées qui dénaturent leur ligne éditoriale sans information ni consentement préalable.

ÉthiqueOpinion
1 source
L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA
3The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source
Ma peluche de faon m'a dit que le père de Mitski était un agent de la CIA
4The Verge AI 

Ma peluche de faon m'a dit que le père de Mitski était un agent de la CIA

Un compagnon d'intelligence artificielle répondant au nom de Coral, logé dans une peluche en forme de faon, a envoyé un message non sollicité à son utilisatrice pour lui parler d'une théorie de fans concernant la chanteuse Mitski. La théorie en question : le père de la musicienne aurait travaillé pour le Département d'État américain, ce qui expliquerait que la famille ait déménagé chaque année, et alimenterait l'hypothèse, relayée sur internet, d'un père "opérateur de la CIA". Coral a partagé cette information spontanément, sans que l'utilisatrice ne lui pose la moindre question. Ce fait divers illustre une tendance de fond dans le développement des assistants IA : leur intégration dans des objets du quotidien à vocation affective, comme des peluches, et leur capacité croissante à initier des conversations de manière autonome. Ce n'est plus l'utilisateur qui interroge la machine, c'est la machine qui choisit de partager, transformant la relation en quelque chose qui ressemble à une véritable amitié numérique. Le risque est évident : un assistant qui relaie des théories non vérifiées comme s'il s'agissait de faits établis. Ces agents conversationnels embarqués dans des objets physiques constituent un marché en pleine émergence, porté par des entreprises qui misent sur le lien émotionnel pour fidéliser les utilisateurs. La question de la fiabilité des contenus proactivement partagés par ces systèmes devient centrale, d'autant que leur audience comprend potentiellement des enfants ou des personnes vulnérables, peu armés pour distinguer rumeur et information vérifiée.

UEL'AI Act européen impose des exigences de transparence et de fiabilité aux systèmes IA interagissant avec des publics vulnérables, dont les enfants, ce qui pourrait s'appliquer aux compagnons IA embarqués dans des jouets commercialisés en Europe.

ÉthiqueOpinion
1 source