Aller au contenu principal
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
SociétéSiècle Digital6sem

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Résumé IASource uniqueImpact UE
Source originale ↗·

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre.

Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance.

Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

Impact France/UE

Ce déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

15 % des Américains seraient prêts à travailler sous les ordres d'une IA
1TechCrunch AI 

15 % des Américains seraient prêts à travailler sous les ordres d'une IA

Quinze pour cent des Américains se déclarent prêts à travailler sous les ordres d'un patron artificiel, selon un sondage récent. Ce chiffre, encore minoritaire, révèle une évolution profonde des mentalités face à l'automatisation des fonctions managériales. Concrètement, des entreprises de toutes tailles intègrent déjà des systèmes d'IA pour superviser les équipes, attribuer les tâches, évaluer les performances et prendre des décisions opérationnelles autrefois réservées aux cadres intermédiaires. Ce mouvement, que certains analystes baptisent « le Grand Aplatissement », remet en cause la structure hiérarchique traditionnelle des organisations. Pour les salariés, cela peut signifier moins de friction humaine dans le quotidien, des décisions perçues comme plus objectives — mais aussi moins de recours, moins d'empathie, et une surveillance algorithmique accrue. Les entreprises y voient une réduction significative des coûts salariaux et une plus grande cohérence dans le management. Cette tendance s'inscrit dans une vague plus large d'adoption de l'IA en entreprise, portée par des outils comme Copilot, Workday AI ou des agents autonomes développés en interne. La question de la responsabilité légale et éthique d'un manager non humain reste entière, et les régulateurs américains et européens commencent tout juste à s'emparer du sujet.

UELes régulateurs européens commencent à s'emparer de la question de la responsabilité légale et éthique des managers IA, ce qui pourrait alimenter les débats autour de l'AI Act et de la directive sur la surveillance algorithmique au travail.

SociétéOpinion
1 source
Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte
2Le Big Data 

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Steve Wozniak, cofondateur d'Apple et figure emblématique de la Silicon Valley, a exprimé dans une interview accordée à Fox Business une franche désillusion vis-à-vis de l'intelligence artificielle générative. Il affirme être « déçu souvent » par les outils actuels et admet les utiliser rarement. Ses deux critiques principales : l'incapacité des IA à reproduire l'émotion humaine, et un problème de fiabilité persistant. Quand il interroge un système comme ChatGPT, il obtient des réponses longues, structurées et factuelles — là où un humain raconterait, contextualiserait, partagerait une expérience subjective. Cette dimension émotionnelle et intentionnelle lui semble fondamentalement absente des modèles actuels. Sur la fiabilité, il est tout aussi catégorique : « Je veux un contenu fiable à chaque fois », une exigence que les LLM actuels ne remplissent pas, capables de produire des réponses convaincantes mais parfois fausses, sans signaler leurs propres limites. Ces critiques ont un poids particulier dans le contexte actuel, où l'IA s'immisce dans des domaines à fort enjeu — éducation, santé, information — et où la confiance des utilisateurs est un enjeu central. Si les modèles de langage sont conçus pour optimiser pertinence et clarté, ils ne garantissent pas une authenticité ni une constance qui permettraient de les ériger en sources d'autorité. Pour Wozniak, tant que cette fiabilité n'est pas acquise, l'IA reste un outil d'assistance, pas un substitut au jugement humain. C'est une préoccupation partagée par de nombreux acteurs du secteur, notamment sur les risques de désinformation ou de décisions automatisées mal fondées dans des contextes critiques. Cette prise de position intervient dans un moment de tension stratégique pour Apple elle-même. L'entreprise a lancé en 2024 Apple Intelligence avec l'ambition affichée de rattraper OpenAI, Google et Microsoft sur le terrain de l'IA, mais plusieurs fonctionnalités annoncées tardent à être déployées, signe d'une progression prudente. Tim Cook, lui, décrit l'IA comme « profondément enrichissante et potentiellement très positive » pour l'expérience utilisateur — un contraste saisissant avec le scepticisme de son cofondateur historique, qui n'a plus de rôle opérationnel dans l'entreprise. Wozniak s'inscrit ainsi dans une tradition de voix critiques venues de l'intérieur même de la tech — des figures comme Geoffrey Hinton ou Yann LeCun qui, chacun à leur manière, ont formulé des réserves profondes sur la trajectoire actuelle de l'IA. Son discours rappelle que l'enthousiasme industriel autour de ces technologies ne fait pas l'unanimité, y compris parmi ceux qui ont bâti le monde numérique d'aujourd'hui.

SociétéOpinion
1 source
Google investit 10 millions de dollars pour former 40 000 ouvriers américains à l’IA
3Le Big Data 

Google investit 10 millions de dollars pour former 40 000 ouvriers américains à l’IA

Google a annoncé le 13 avril 2026 un investissement de 10 millions de dollars via son fonds Google.org pour former 40 000 travailleurs du secteur manufacturier américain à l'intelligence artificielle. Ce financement est versé au Manufacturing Institute, organisme affilié à la National Association of Manufacturers, qui disposera de deux nouveaux programmes de formation. Le premier, une introduction à l'IA destinée aux ouvriers de production, adapte les contenus pédagogiques existants de Google aux réalités du terrain industriel. Le second, plus technique, cible les techniciens qui intègrent directement l'IA dans les processus de fabrication. En complément du financement, Google engage ses propres ingénieurs et experts dans la conception des curricula, tandis que le Manufacturing Institute se charge de les contextualiser pour chaque environnement d'atelier. Un certificat professionnel IA de Google sera également mis à disposition des travailleurs manufacturiers sans frais. L'enjeu dépasse la simple formation : d'ici 2033, près de 1,9 million de postes dans l'industrie américaine pourraient rester vacants faute de profils adaptés aux technologies émergentes. En équipant les ouvriers d'une maîtrise concrète de l'IA, l'initiative vise à réduire ce déficit structurel tout en améliorant la productivité des chaînes de production face à des concurrents internationaux déjà engagés dans cette transformation. Pour les industriels, la capacité à déployer l'IA au niveau opérationnel, et pas seulement dans les directions IT, représente un levier de compétitivité direct. Le programme adresse aussi un frein psychologique souvent sous-estimé : la crainte de l'automatisation chez les travailleurs. En montrant des cas d'usage concrets où l'IA augmente les compétences humaines plutôt qu'elle ne les remplace, Google cherche à accélérer l'adoption sur le terrain. Cette initiative s'inscrit dans une tendance plus large où les géants technologiques ne se contentent plus de vendre des outils, mais investissent activement dans la montée en compétences des utilisateurs finaux pour lever les freins à l'adoption de leurs propres technologies. Google n'est pas seul sur ce terrain : Microsoft, Amazon et d'autres ont lancé des programmes similaires ces dernières années, mais celui-ci se distingue par son ancrage dans le secteur manufacturier traditionnel, souvent perçu comme à la traîne sur la transformation numérique. Le choix du Manufacturing Institute comme partenaire opérationnel est stratégique : l'organisme dispose d'un réseau établi dans l'industrie lourde et peut déployer des formations à grande échelle rapidement. La question qui reste ouverte est celle de la mesure d'impact réel sur la productivité et l'emploi, des indicateurs que Google et le Manufacturing Institute devront documenter pour justifier l'extension possible du programme au-delà des 40 000 bénéficiaires initiaux.

SociétéOpinion
1 source
4Ars Technica AI 

Les Américains consultent l'IA pour leur santé : les hôpitaux misent sur encore plus de chatbots

De plus en plus d'Américains se tournent vers les grands modèles de langage comme ChatGPT pour obtenir des conseils médicaux, et les systèmes de santé du pays commencent à réagir en déployant leurs propres chatbots estampillés à leur marque. Des établissements hospitaliers à travers les États-Unis expérimentent ou lancent déjà ces outils, dans le but de capter une demande existante et de rediriger les patients vers leurs propres services. Allon Bloch, PDG de la société d'IA clinique K Health, résume la situation ainsi : "Nous sommes à un point d'inflexion dans les soins de santé. La demande s'accélère, et les patients utilisent déjà l'IA pour naviguer dans leur vie." Pour les dirigeants de ces établissements, les chatbots maison représentent à la fois un service de commodité et une réponse à l'équité numérique, en rejoignant les patients là où ils se trouvent déjà. Ils avancent également que leurs outils seront plus sûrs que les versions commerciales grand public auxquelles les patients ont spontanément recours. L'enjeu est considérable : si les gens consultent de toute façon une IA avant d'appeler leur médecin, autant que ce soit une IA encadrée par des professionnels de santé plutôt qu'un outil généraliste sans garde-fous médicaux. Cette tendance émerge dans un contexte où le système de santé américain est déjà sous pression, jugé coûteux et sous-performant par de nombreux observateurs. L'arrivée des chatbots hospitaliers soulève des questions immédiates sur la responsabilité médicale, la confidentialité des données de santé et le risque de mauvais diagnostics. Le mouvement s'inscrit dans une vague plus large d'adoption de l'IA dans le secteur médical, qui voit des acteurs comme Google, Microsoft et des startups spécialisées se positionner sur ce marché stratégique. La capacité des hôpitaux à proposer des alternatives crédibles aux outils grand public dépendra largement de la qualité des données cliniques sur lesquelles ces systèmes seront formés et des protocoles de supervision médicale mis en place.

UECette tendance américaine pourrait se propager aux systèmes de santé européens, soulevant des enjeux réglementaires autour du RGPD et de la responsabilité médicale des chatbots déployés par des établissements de soins.

SociétéOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour