Aller au contenu principal
L’influenceuse militaire pro-Trump qui cartonne sur Instagram n’est qu’une IA fétichiste
Éthique01net8sem

L’influenceuse militaire pro-Trump qui cartonne sur Instagram n’est qu’une IA fétichiste

Résumé IASource uniqueImpact UE
Source originale ↗·

Jessica Foster, une influenceuse militaire pro-Trump générée par IA, a trompé plus d'un million d'abonnés sur Instagram en posant avec Donald Trump et Lionel Messi dans des mises en scène fabriquées. Son seul but était de rediriger ces "patriotes" vers une plateforme de contenu pour adultes.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
Un chemin à suivre pour l'IA, si quelqu'un est prêt à écouter
2TechCrunch AI 

Un chemin à suivre pour l'IA, si quelqu'un est prêt à écouter

La "Déclaration Pro-Humain" a été finalisée avant l'affrontement entre le Pentagone et Anthropic la semaine dernière, mais personne n'a manqué la coïncidence des événements. Ce document vise à établir un plan pour le développement de l'IA, mais il reste à voir si il sera pris en considération.

UE"La 'Déclaration Pro-Humain' pourrait guider l'IA en Europe, évitant une réglementation stricte comme l'AI Act, favorisant ainsi les entreprises françaises et européennes dans le développement éthique de l'IA, tout en respectant le RGPD."

ÉthiqueOpinion
1 source
« Le danger de l’IA militaire réside dans une dilution progressive de la responsabilité »
3Le Monde Pixels 

« Le danger de l’IA militaire réside dans une dilution progressive de la responsabilité »

Le doctorant en droit Ridhwane Allouche, dans une tribune au "Monde", souligne que le danger de l'IA militaire réside dans une dilution progressive de la responsabilité. Il appelle à un traité international d'éthique de l'intelligence artificielle dans la guerre, rappelant que les sociétés ont su fixer des limites face à la violence technologique menacante de dérive incontrôlée.

UELa tribune appelle à un traité international encadrant l'IA militaire, ce qui concerne directement les États membres de l'UE dans leurs engagements en matière de droit international humanitaire et de régulation des systèmes d'armes autonomes.

ÉthiqueOpinion
1 source
Face aux tensions sur les contenus, le fondateur de Mistral AI propose une « taxe IA » pour soutenir les créateurs
4Siècle Digital 

Face aux tensions sur les contenus, le fondateur de Mistral AI propose une « taxe IA » pour soutenir les créateurs

Arthur Menesch, fondateur de Mistral AI, propose l'instauration d'une « taxe IA » — une contribution financière obligatoire pour les entreprises d'IA générative — afin de rémunérer les créateurs dont les contenus protégés par le droit d'auteur ont servi à entraîner les modèles. Cette proposition vise à désamorcer les tensions croissantes entre l'industrie de l'IA et les industries culturelles. Elle s'inscrit dans un débat plus large sur la régulation de l'utilisation des données d'entraînement.

UELa proposition d'une contribution obligatoire des entreprises d'IA générative pourrait directement alimenter les débats législatifs européens sur le droit d'auteur et les données d'entraînement, avec un impact concret pour les industries culturelles françaises et la directive sur le droit d'auteur de l'UE.

ÉthiqueReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour