Aller au contenu principal
☕️ La moitié des consommateurs US préfèrent éviter les marques qui utilisent l’IA générative
SociétéNext INpact6sem

☕️ La moitié des consommateurs US préfèrent éviter les marques qui utilisent l’IA générative

Résumé IASource uniqueImpact UE
Source originale ↗·

Une étude Gartner publiée fin 2025 révèle une défiance marquée des consommateurs américains envers l'intelligence artificielle générative dans le marketing : 50 % d'entre eux déclarent préférer des marques qui n'y recourent pas pour leurs messages, publicités et contenus grand public. Ce chiffre illustre un mouvement de fond qui complique la stratégie de nombreuses entreprises ayant misé massivement sur la GenAI pour automatiser leur communication.

Ce scepticisme ne se limite pas au rejet de l'IA elle-même — il traduit une crise de confiance plus profonde dans l'information numérique. 61 % des répondants déclarent s'interroger régulièrement sur la fiabilité des informations qu'ils utilisent pour leurs décisions quotidiennes, et 68 % doutent souvent de l'authenticité des contenus qu'ils consultent. Pour les marques, l'enjeu dépasse donc le simple choix d'outil : c'est leur crédibilité qui est en jeu.

L'étude, menée en octobre 2025 auprès de 1 539 consommateurs, révèle également que seuls 27 % se fient encore à leur intuition pour évaluer la véracité d'une information — signe que les vérifications indépendantes deviennent la norme. Emily Weiss, analyste principale senior au pôle Marketing de Gartner, préconise une approche en trois points : proposer la GenAI en option plutôt qu'en mode imposé, déployer en priorité des cas d'usage d'assistance à valeur immédiate, et signaler clairement les expériences pilotées par l'IA.

Weiss formule une mise en garde directe aux équipes marketing : « Les spécialistes du marketing devraient considérer l'IA générative autant comme un enjeu de confiance que comme un choix technologique. » Les marques gagnantes seront celles qui rendront l'usage de l'IA transparent, utile et maîtrisable par le client — condition pour que la technologie renforce l'expérience plutôt qu'elle n'érode la relation de confiance.

Impact France/UE

Le scepticisme des consommateurs envers l'IA générative dans le marketing est une tendance mondiale qui concerne également les marques européennes, même si l'étude porte sur le marché américain.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les utilisateurs avancés creusent l'écart dans la maîtrise de l'IA
1TechCrunch AI 

Les utilisateurs avancés creusent l'écart dans la maîtrise de l'IA

Anthropic a publié de nouvelles données montrant que l'IA ne remplace pas encore les emplois à grande échelle, mais que des inégalités significatives commencent à émerger entre les utilisateurs. Les « power users » — ceux qui maîtrisent bien ces outils — gagnent un avantage concurrentiel croissant sur leurs collègues moins expérimentés. Cet écart de compétences est préoccupant : il ne s'agit pas d'une destruction d'emplois immédiate, mais d'une fracture qui se creuse silencieusement. Les travailleurs aguerris à l'IA deviennent plus productifs et plus précieux, tandis que les autres risquent d'être progressivement marginalisés sur le marché du travail. Ce constat rejoint les inquiétudes plus larges sur la transition numérique : l'IA reproduit et amplifie les inégalités existantes avant même de transformer structurellement l'emploi.

UELes inégalités de compétences IA menacent la cohésion du marché du travail européen, un enjeu directement lié aux politiques de formation et d'inclusion numérique de l'UE.

SociétéActu
1 source
Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
2The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source
Publicité dans l’IA : 63% des utilisateurs disent perdre confiance dans les réponses
3Siècle Digital 

Publicité dans l’IA : 63% des utilisateurs disent perdre confiance dans les réponses

Une enquête Ipsos Consumer Tracker menée auprès de 1 085 adultes américains révèle que 63% des utilisateurs déclarent perdre confiance dans les réponses des assistants IA dès lors que celles-ci intègrent de la publicité. L'étude met également en lumière un fossé générationnel marqué : 49% des 18-34 ans se disent très familiers avec l'IA, contre seulement 15% des plus de 55 ans, ce qui illustre à quel point l'adoption reste concentrée sur les tranches d'âge jeunes. Ce chiffre de 63% est particulièrement significatif pour l'industrie, car il pointe une tension fondamentale entre monétisation et crédibilité. Les grands acteurs comme Google, OpenAI ou Microsoft misent sur l'intégration publicitaire pour rentabiliser leurs assistants IA, dont les coûts d'infrastructure restent colossaux. Or, si les utilisateurs perçoivent les réponses comme biaisées par des intérêts commerciaux, c'est l'utilité même du produit qui s'effondre, et avec elle la fidélisation. Cette défiance s'inscrit dans un contexte où la question de la monétisation de l'IA conversationnelle est devenue centrale. Après une phase d'adoption portée par la gratuité et la nouveauté, les plateformes cherchent désormais des modèles économiques viables. Le recours à la publicité, traditionnel sur le web, se heurte ici à une attente différente : les utilisateurs traitent les assistants IA comme des conseillers neutres, non comme des médias. Trouver un équilibre entre revenus publicitaires et perception d'objectivité sera l'un des défis majeurs des prochains mois pour l'ensemble du secteur.

SociétéOpinion
1 source
Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM
4Ars Technica AI 

Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM

Une étude publiée par des chercheurs de l'Université de Pennsylvanie met en lumière un phénomène qu'ils nomment la "reddition cognitive" : la tendance croissante de certains utilisateurs d'IA à déléguer entièrement leur réflexion critique aux grands modèles de langage. Intitulée "Thinking — Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender", la recherche s'appuie sur des expérimentations contrôlées pour analyser dans quelles conditions les individus abandonnent leur jugement au profit des réponses d'un système automatisé. Les facteurs étudiés incluent la pression temporelle, les incitations externes, et la perception d'autorité des outils d'IA. Ce travail a des implications concrètes pour des millions d'utilisateurs professionnels et grand public qui recourent quotidiennement à des outils comme ChatGPT, Claude ou Gemini. Lorsque la reddition cognitive s'installe, les erreurs factuelles, les biais algorithmiques et les raisonnements défectueux des modèles passent inaperçus — l'utilisateur ne vérifie plus, il accepte. Pour les entreprises qui déploient ces outils à grande échelle dans des processus décisionnels, le risque est systémique : une confiance aveugle dans des sorties LLM non contrôlées peut amplifier des erreurs plutôt que les corriger. Le cadre théorique s'inscrit dans la continuité des travaux de Daniel Kahneman sur les deux systèmes de pensée : le Système 1, rapide et intuitif, et le Système 2, lent et analytique. Les chercheurs de Penn proposent un troisième système, la "cognition artificielle", dans lequel les décisions sont pilotées par un raisonnement externe, automatisé et algorithmique, étranger à l'esprit humain. Cette taxonomie ouvre la voie à de nouvelles recherches sur la façon dont l'IA reconfigure les habitudes intellectuelles, et pose une question urgente pour les concepteurs de ces systèmes : comment concevoir des interfaces qui encouragent la supervision critique plutôt que la passivité cognitive ?

SociétéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour