Aller au contenu principal
Publicité dans l’IA : 63% des utilisateurs disent perdre confiance dans les réponses
SociétéSiècle Digital3j

Publicité dans l’IA : 63% des utilisateurs disent perdre confiance dans les réponses

1 source couvre ce sujet·Source originale ↗·

Une enquête Ipsos Consumer Tracker menée auprès de 1 085 adultes américains révèle que 63% des utilisateurs déclarent perdre confiance dans les réponses des assistants IA dès lors que celles-ci intègrent de la publicité. L'étude met également en lumière un fossé générationnel marqué : 49% des 18-34 ans se disent très familiers avec l'IA, contre seulement 15% des plus de 55 ans, ce qui illustre à quel point l'adoption reste concentrée sur les tranches d'âge jeunes.

Ce chiffre de 63% est particulièrement significatif pour l'industrie, car il pointe une tension fondamentale entre monétisation et crédibilité. Les grands acteurs comme Google, OpenAI ou Microsoft misent sur l'intégration publicitaire pour rentabiliser leurs assistants IA, dont les coûts d'infrastructure restent colossaux. Or, si les utilisateurs perçoivent les réponses comme biaisées par des intérêts commerciaux, c'est l'utilité même du produit qui s'effondre, et avec elle la fidélisation.

Cette défiance s'inscrit dans un contexte où la question de la monétisation de l'IA conversationnelle est devenue centrale. Après une phase d'adoption portée par la gratuité et la nouveauté, les plateformes cherchent désormais des modèles économiques viables. Le recours à la publicité, traditionnel sur le web, se heurte ici à une attente différente : les utilisateurs traitent les assistants IA comme des conseillers neutres, non comme des médias. Trouver un équilibre entre revenus publicitaires et perception d'objectivité sera l'un des défis majeurs des prochains mois pour l'ensemble du secteur.

À lire aussi

L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce
1Siècle Digital 

L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce

Marc Benioff, PDG de Salesforce, a pris position dans le débat sur l'avenir des développeurs logiciels à l'ère de l'IA générative. Sa réponse à ceux qui prédisent la disparition prochaine du métier d'ingénieur est directe : il suffit d'ouvrir les pages carrières de Meta, Google, Anthropic et OpenAI pour constater que ces entreprises, dont les modèles sont censés automatiser le code, continuent de recruter massivement des ingénieurs logiciels. Pour Benioff, ce signal de marché est plus éloquent que n'importe quel discours alarmiste. Son argument central est que l'IA augmente la productivité des ingénieurs sans les rendre obsolètes. Les outils de génération de code accélèrent certaines tâches répétitives, mais la conception architecturale, la résolution de problèmes complexes et la supervision des systèmes restent l'apanage des humains. Cette position tranche avec les déclarations de certains dirigeants tech qui évoquent des réductions d'effectifs liées à l'automatisation, comme Shopify ou Duolingo l'ont laissé entendre récemment. Le débat s'inscrit dans un contexte de tension croissante entre les promesses des grands modèles de langage et les réalités du marché du travail. D'un côté, des outils comme GitHub Copilot ou Cursor transforment concrètement le quotidien des développeurs. De l'autre, la demande de profils techniques qualifiés reste soutenue, notamment pour entraîner, affiner et maintenir ces mêmes modèles. La thèse de Benioff est que l'IA redéfinit le métier d'ingénieur plutôt qu'elle ne l'élimine, du moins pour les années à venir.

UELe débat sur l'avenir des ingénieurs logiciels face à l'IA concerne indirectement le marché européen, où la demande de profils techniques qualifiés reste soutenue malgré l'essor des outils de génération de code.

SociétéOpinion
1 source
Près d’1 jeune Français sur 3 a déjà acheté avec ChatGPT selon une étude
2Siècle Digital 

Près d’1 jeune Français sur 3 a déjà acheté avec ChatGPT selon une étude

Près d'un jeune Français sur trois, âgé de 15 à 25 ans, a déjà effectué un achat en passant par ChatGPT, selon une étude OpinionWay réalisée pour Orisha Commerce auprès de 1 604 jeunes en France et en Espagne. 59 % des sondés déclarent découvrir en priorité de nouveaux produits via les contenus des réseaux sociaux, devançant largement la recherche Google traditionnelle. L'intelligence artificielle générative s'impose ainsi comme un nouveau point d'entrée dans le parcours d'achat de cette génération. Ce basculement représente un défi majeur pour les marques et les e-commerçants. Si Google a structuré pendant vingt ans les stratégies SEO et d'acquisition, les plateformes doivent désormais penser leur présence dans les réponses des assistants IA, qui synthétisent l'information sans renvoyer systématiquement vers les sites sources. Pour les retailers, c'est toute la chaîne de visibilité et de conversion qui doit être repensée, depuis le référencement des catalogues produits jusqu'à la façon dont les fiches sont structurées pour être comprises et citées par les LLM. Ce phénomène s'inscrit dans une tendance plus large de désintermédiation des moteurs de recherche classiques, accélérée par la montée en puissance de ChatGPT, Perplexity et des assistants intégrés aux smartphones. Les 15-25 ans, premiers utilisateurs natifs de ces outils, dictent souvent les usages qui se diffusent ensuite aux tranches d'âge supérieures. Orisha Commerce, éditeur de solutions pour le commerce unifié, publie cette étude dans un contexte où les acteurs du retail cherchent à anticiper la prochaine rupture dans les comportements d'achat en ligne.

UEL'étude porte directement sur les 15-25 ans en France et en Espagne et révèle qu'un tiers d'entre eux achètent déjà via ChatGPT, obligeant les e-commerçants français à repenser leur stratégie de visibilité au profit des assistants IA plutôt que du SEO Google traditionnel.

💬 Un tiers des 15-25 ans qui passent par ChatGPT pour acheter, c'est pas anodin. Le SEO tel qu'on l'a connu pendant vingt ans est en train de se faire doubler par un truc que la plupart des e-commerçants n'ont pas encore commencé à adresser. Reste à voir comment on optimise une fiche produit pour qu'un LLM la cite plutôt qu'une autre.

SociétéOutil
1 source
L’intelligence artificielle transforme l’expérience collaborateur malgré un déficit d’écoute des directions
3Le Big Data 

L’intelligence artificielle transforme l’expérience collaborateur malgré un déficit d’écoute des directions

Le rapport 2026 de Qualtrics sur l'expérience collaborateur, conduit auprès de plus de 33 000 salariés dans 24 pays, révèle que 80 % des employés utilisent des outils d'intelligence artificielle non fournis par leur employeur. Ce phénomène, désigné sous le terme de "Shadow AI", se manifeste indépendamment des politiques internes et des dispositifs officiels déployés par les directions informatiques. L'étude montre également que l'introduction d'outils d'IA dans le cadre professionnel s'accompagne d'une hausse de 10 points de l'engagement des salariés, atteignant 78 % chez ceux exposés à ces technologies. 65 % d'entre eux rapportent une exécution plus rapide de leurs tâches, 58 % constatent une amélioration de la qualité de leur travail, et 37 % affirment pouvoir accomplir des missions qui leur étaient auparavant inaccessibles. Ce recours massif à des solutions externes traduit un décalage profond entre les stratégies des directions et les besoins concrets du terrain. Les salariés, soumis à une pression croissante de productivité, choisissent les outils les plus accessibles sans attendre le déploiement de solutions validées en interne, sous-estimant souvent les risques associés comme la fuite de données sensibles ou l'absence de traçabilité. Liza Le Derff, Senior Consultant chez Qualtrics, interprète ce comportement non comme une rébellion mais comme un signal d'alarme : les outils internes sont jugés trop limités ou insuffisamment communiqués. Par ailleurs, 42 % des salariés réclament une meilleure écoute de leur hiérarchie, alors que seulement 25 % des entreprises ont renforcé leurs dispositifs d'écoute au cours de l'année 2025. Ce déficit empêche les directions RH et IT de capter les besoins réels, ce qui pousse les collaborateurs à contourner les politiques officielles. Malgré tout, 21 % des salariés expriment encore des craintes vis-à-vis de l'IA, illustrant que l'adhésion reste partielle et conditionnée à l'accompagnement proposé. Ce rapport s'inscrit dans un contexte où l'IA générative s'est imposée en quelques années comme outil du quotidien dans de nombreuses professions, bien avant que les organisations n'aient pu structurer une réponse cohérente. Les grandes entreprises technologiques comme Microsoft, Google ou Salesforce ont accéléré l'intégration de fonctionnalités d'IA dans leurs suites collaboratives, rendant l'adoption quasi inévitable. Les directions RH se retrouvent désormais face à un défi double : encadrer un usage déjà répandu pour limiter les risques de sécurité et de conformité, tout en proposant des outils internes suffisamment performants pour que les salariés n'aient plus à chercher ailleurs. L'enjeu pour les prochains mois sera de transformer cette écoute en actions concrètes, en impliquant les collaborateurs dans la sélection et le déploiement des solutions, plutôt que de les exposer à des décisions descendantes déconnectées de leurs réalités opérationnelles.

UELe Shadow AI documenté dans ce rapport représente un risque de conformité RGPD concret pour les entreprises européennes, dont les salariés utilisent des outils non validés susceptibles de transmettre des données sensibles vers des serveurs hors UE.

SociétéActu
1 source
Impôts 2026 : pourquoi utiliser ChatGPT ou Gemini pour sa déclaration est dangereux
4Frandroid 

Impôts 2026 : pourquoi utiliser ChatGPT ou Gemini pour sa déclaration est dangereux

La campagne de déclaration des revenus 2025 a officiellement ouvert ses portes en avril 2026, et avec elle une nouvelle tentation pour des millions de contribuables français : confier à ChatGPT, Gemini ou d'autres assistants IA le soin de remplir leur formulaire fiscal. La démarche semble séduisante, rapide, gratuite, disponible à toute heure, mais elle expose à des risques bien concrets : erreurs dans les cases, oubli de déductions légitimes, ou pire, des données erronées qui déclenchent un contrôle fiscal ou entraînent une majoration pouvant atteindre 40 % des sommes dues. Le problème central est que ces modèles de langage ne connaissent pas la situation personnelle du contribuable, ne sont pas connectés aux bases de données fiscales françaises, et peuvent confondre des règles qui ont changé d'une année sur l'autre. Une déduction pour frais réels, un crédit d'impôt pour garde d'enfant ou un revenu exceptionnel à déclarer séparément : autant de subtilités que l'IA gère mal sans contexte précis et à jour. Une erreur déclarée, même involontaire, reste une erreur aux yeux de l'administration. Ce phénomène s'inscrit dans une tendance plus large où les outils d'IA générative sont utilisés pour des démarches administratives complexes sans que les utilisateurs mesurent leurs limites. La Direction générale des Finances publiques (DGFiP) ne reconnaît aucune déclaration co-rédigée par une IA comme excuse en cas d'erreur. Les assistants virtuels officiels d'impots.gouv.fr ou les centres des impôts restent les seuls recours fiables, et plusieurs associations de consommateurs rappellent que l'IA peut servir à comprendre une notion générale, mais jamais à valider une ligne chiffrée.

UELes contribuables français risquent des majorations fiscales pouvant atteindre 40 % en cas d'erreur de déclaration assistée par IA, la DGFiP ne reconnaissant aucune circonstance atténuante liée à l'utilisation de ces outils.

SociétéOpinion
1 source