Aller au contenu principal
15 % des Américains seraient prêts à travailler sous les ordres d'une IA
SociétéTechCrunch AI6sem

15 % des Américains seraient prêts à travailler sous les ordres d'une IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Quinze pour cent des Américains se déclarent prêts à travailler sous les ordres d'un patron artificiel, selon un sondage récent. Ce chiffre, encore minoritaire, révèle une évolution profonde des mentalités face à l'automatisation des fonctions managériales. Concrètement, des entreprises de toutes tailles intègrent déjà des systèmes d'IA pour superviser les équipes, attribuer les tâches, évaluer les performances et prendre des décisions opérationnelles autrefois réservées aux cadres intermédiaires.

Ce mouvement, que certains analystes baptisent « le Grand Aplatissement », remet en cause la structure hiérarchique traditionnelle des organisations. Pour les salariés, cela peut signifier moins de friction humaine dans le quotidien, des décisions perçues comme plus objectives — mais aussi moins de recours, moins d'empathie, et une surveillance algorithmique accrue. Les entreprises y voient une réduction significative des coûts salariaux et une plus grande cohérence dans le management.

Cette tendance s'inscrit dans une vague plus large d'adoption de l'IA en entreprise, portée par des outils comme Copilot, Workday AI ou des agents autonomes développés en interne. La question de la responsabilité légale et éthique d'un manager non humain reste entière, et les régulateurs américains et européens commencent tout juste à s'emparer du sujet.

Impact France/UE

Les régulateurs européens commencent à s'emparer de la question de la responsabilité légale et éthique des managers IA, ce qui pourrait alimenter les débats autour de l'AI Act et de la directive sur la surveillance algorithmique au travail.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les salariés d'Amazon "tokenmaxxent" sous la pression d'utiliser les outils IA
1Ars Technica AI 

Les salariés d'Amazon "tokenmaxxent" sous la pression d'utiliser les outils IA

Des employés d'Amazon ont recours à une pratique baptisée "tokenmaxxing" : ils utilisent l'outil d'intelligence artificielle interne de l'entreprise pour automatiser des tâches superflues, dans le seul but de gonfler artificiellement leurs statistiques d'utilisation de l'IA. Selon trois sources proches du dossier, Amazon a déployé à grande échelle ces dernières semaines son produit maison "MeshClaw", qui permet aux salariés de créer des agents capables de se connecter aux logiciels professionnels et d'effectuer des actions en leur nom. Certains collègues utilisent ce système pour générer de l'activité IA supplémentaire et inutile, augmentant ainsi leur consommation de tokens, ces unités de données traitées par les modèles de langage. Le phénomène révèle une tension croissante dans les grandes entreprises tech entre la pression managériale d'adopter l'IA et l'utilisation réelle et productive de ces outils. Lorsque les indicateurs de performance incluent la fréquence d'utilisation de l'IA, les employés sont incités à optimiser ces métriques plutôt que les résultats concrets de leur travail. Cela soulève des questions sérieuses sur la fiabilité des données d'adoption interne que les directions utilisent pour justifier leurs investissements technologiques. Amazon a massivement misé sur l'intelligence artificielle ces derniers mois, intégrant des outils IA dans ses processus internes et exerçant une pression visible sur ses équipes pour démontrer leur adhésion à cette transformation. Cette dynamique n'est pas propre à Amazon : dans toute la Silicon Valley, les entreprises cherchent à mesurer le retour sur investissement de l'IA, créant des systèmes d'incitation qui peuvent se retourner contre leurs propres objectifs.

UELes directions d'entreprises françaises et européennes qui mesurent l'adoption de l'IA via des indicateurs de fréquence d'utilisation s'exposent au même biais de contournement métrique, fragilisant la fiabilité de leurs données d'investissement.

SociétéActu
1 source
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
2Siècle Digital 

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre. Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance. Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

UECe déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

SociétéActu
1 source
Pourquoi former son personnel des ressources humaines à l’IA devient primordial ?
3Le Big Data 

Pourquoi former son personnel des ressources humaines à l’IA devient primordial ?

L'intelligence artificielle s'impose désormais comme un outil structurant dans les départements de ressources humaines, et les entreprises qui tardent à former leurs équipes accumulent un retard difficile à combler. Les RH automatisent déjà les tâches administratives répétitives grâce à des logiciels capables de traiter en quelques secondes des volumes de données qui mobilisaient autrefois plusieurs jours de travail. Sur le front du recrutement, des algorithmes analysent des milliers de candidatures simultanément, identifient les profils pertinents et réduisent mécaniquement les biais cognitifs qui pèsent sur les sélections humaines. La gestion des carrières suit le même mouvement : des systèmes connectés anticipent les évolutions de poste, cartographient les compétences disponibles en interne et ajustent les plans de formation avant que les besoins ne deviennent urgents. L'enjeu pour les équipes RH n'est pas de devenir des ingénieurs en machine learning, mais de comprendre ce que les outils disent et de savoir en contester les conclusions. Les organisations qui franchissent ce cap enregistrent des gains mesurables : réduction des coûts de recrutement, diminution du temps de traitement des dossiers, meilleure rétention des talents grâce à un suivi plus fin des parcours professionnels. En libérant les professionnels RH des tâches à faible valeur ajoutée, l'IA leur permet de concentrer leur attention sur les missions qui exigent un jugement humain : médiation, accompagnement, décision sensible. Les entreprises qui investissent dans cette montée en compétence renforcent aussi leur attractivité, car les candidats qualifiés scrutent de plus en plus les pratiques RH des employeurs potentiels. La transformation n'est cependant pas sans friction. La question de la transparence algorithmique monte en puissance : quand un logiciel influence une promotion ou un licenciement, les salariés et les représentants du personnel exigent des explications sur les critères utilisés. Plusieurs organisations ont d'ores et déjà opté pour des chartes d'usage de l'IA en RH, moins par souci de communication que pour poser des garde-fous concrets sur les décisions automatisées. Le consensus qui émerge dans le secteur est clair : l'algorithme peut instruire un dossier, mais c'est un humain qui doit trancher. Former les équipes RH à l'IA, c'est donc aussi leur apprendre à exercer ce contrôle de manière éclairée, à lire entre les lignes des tableaux de bord et à maintenir une présence humaine là où les chiffres seuls ne suffisent pas.

UEL'AI Act européen impose des obligations de transparence sur les systèmes d'IA intervenant dans des décisions RH à fort impact (embauche, licenciement, promotion), rendant la montée en compétence des équipes RH en France et en UE directement nécessaire pour assurer la conformité.

SociétéOpinion
1 source
4Ars Technica AI 

Les Américains consultent l'IA pour leur santé : les hôpitaux misent sur encore plus de chatbots

De plus en plus d'Américains se tournent vers les grands modèles de langage comme ChatGPT pour obtenir des conseils médicaux, et les systèmes de santé du pays commencent à réagir en déployant leurs propres chatbots estampillés à leur marque. Des établissements hospitaliers à travers les États-Unis expérimentent ou lancent déjà ces outils, dans le but de capter une demande existante et de rediriger les patients vers leurs propres services. Allon Bloch, PDG de la société d'IA clinique K Health, résume la situation ainsi : "Nous sommes à un point d'inflexion dans les soins de santé. La demande s'accélère, et les patients utilisent déjà l'IA pour naviguer dans leur vie." Pour les dirigeants de ces établissements, les chatbots maison représentent à la fois un service de commodité et une réponse à l'équité numérique, en rejoignant les patients là où ils se trouvent déjà. Ils avancent également que leurs outils seront plus sûrs que les versions commerciales grand public auxquelles les patients ont spontanément recours. L'enjeu est considérable : si les gens consultent de toute façon une IA avant d'appeler leur médecin, autant que ce soit une IA encadrée par des professionnels de santé plutôt qu'un outil généraliste sans garde-fous médicaux. Cette tendance émerge dans un contexte où le système de santé américain est déjà sous pression, jugé coûteux et sous-performant par de nombreux observateurs. L'arrivée des chatbots hospitaliers soulève des questions immédiates sur la responsabilité médicale, la confidentialité des données de santé et le risque de mauvais diagnostics. Le mouvement s'inscrit dans une vague plus large d'adoption de l'IA dans le secteur médical, qui voit des acteurs comme Google, Microsoft et des startups spécialisées se positionner sur ce marché stratégique. La capacité des hôpitaux à proposer des alternatives crédibles aux outils grand public dépendra largement de la qualité des données cliniques sur lesquelles ces systèmes seront formés et des protocoles de supervision médicale mis en place.

UECette tendance américaine pourrait se propager aux systèmes de santé européens, soulevant des enjeux réglementaires autour du RGPD et de la responsabilité médicale des chatbots déployés par des établissements de soins.

SociétéOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour