Aller au contenu principal
IA et fracture économique : l'avertissement de Larry Fink (BlackRock)
SociétéZDNET FR6sem

IA et fracture économique : l'avertissement de Larry Fink (BlackRock)

Résumé IASource uniqueImpact UE
Source originale ↗·

Larry Fink, PDG de BlackRock, le plus grand gestionnaire d'actifs au monde avec plus de 10 000 milliards de $ sous gestion, lance un avertissement sévère : l'intelligence artificielle pourrait devenir le moteur d'une fracture économique sans précédent si ses bénéfices restent concentrés entre les mains des seuls détenteurs de capital.

Le constat est structurel. Contrairement aux révolutions industrielles précédentes qui ont, à terme, redistribué de la valeur via l'emploi et les salaires, l'IA automatise des tâches cognitives à grande échelle — menaçant directement les classes moyennes et les travailleurs qualifiés. Si les gains de productivité générés par l'IA ne bénéficient qu'aux actionnaires, l'écart de richesse entre propriétaires d'actifs et salariés risque de s'accélérer de façon structurelle et durable.

Fink plaide pour une démocratisation de l'accès à l'investissement comme réponse systémique : permettre à davantage de citoyens de devenir propriétaires d'actifs financiers — actions, infrastructures, immobilier — afin de participer aux rendements générés par l'IA. Il s'agit moins d'une critique de la technologie que d'un appel à repenser les mécanismes de distribution de la valeur économique à l'ère de l'automatisation intelligente.

La prise de position de BlackRock sur ce sujet n'est pas anodine : en tant que premier actionnaire institutionnel de nombreuses entreprises tech développant l'IA, le groupe a une influence directe sur les politiques de redistribution et de gouvernance de ces acteurs. Ce signal envoyé par Fink pourrait peser dans les débats politiques et réglementaires autour de la fiscalité du capital et de l'accès aux marchés financiers.

Impact France/UE

Les débats sur la taxation des grandes entreprises technologiques et la régulation de l'automatisation évoqués par Fink rejoignent les discussions en cours au sein de l'UE sur la fiscalité du numérique et l'adaptation des politiques sociales à la transition IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge AI 

Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA

Un homme de 20 ans a été accusé d'avoir lancé un cocktail Molotov au domicile de Sam Altman, PDG d'OpenAI, à San Francisco. Selon le San Francisco Chronicle, l'auteur présumé avait exprimé par écrit sa crainte que la course à l'IA ne conduise à l'extinction de l'humanité. Deux jours après cette première attaque, la résidence d'Altman aurait été ciblée une seconde fois, d'après le San Francisco Standard. Une semaine auparavant, un conseiller municipal d'Indianapolis avait signalé treize coups de feu tirés à sa porte, accompagnés d'un message "No Data Centers", après avoir soutenu un projet de rezonage en faveur d'un opérateur de centres de données. Ces incidents ont déclenché une vive inquiétude au sein et autour de l'industrie de l'IA. Ils signalent que l'hostilité envers le secteur technologique ne reste plus confinée aux pétitions ou aux protestations en ligne, mais peut déboucher sur des actes de violence physique ciblant directement des dirigeants et des élus locaux. Pour une industrie déjà sous pression réglementaire et médiatique, ce glissement vers la menace concrète représente un changement de nature dans le rapport avec l'opinion publique. La résistance aux grandes infrastructures numériques, notamment aux centres de données énergivores, et aux avancées rapides de l'IA existe depuis plusieurs années dans diverses communautés. Des groupes s'inquiètent des risques existentiels liés à l'IA générale, tandis que d'autres dénoncent l'impact environnemental et foncier des data centers. Ces attaques surviennent dans un contexte de débat intense sur la régulation de l'IA aux États-Unis et en Europe, et posent la question de la sécurité des figures publiques du secteur technologique dans les mois à venir.

UECes actes de violence aux États-Unis pourraient amplifier les appels à une meilleure régulation de l'IA en Europe, sans impact direct immédiat sur la France ou l'UE.

SociétéOpinion
1 source
L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique
2Le Big Data 

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique

Meriem El Bouhali, enseignante-chercheuse à l'ESLSCA Paris Business School, publie les premiers résultats d'une enquête qualitative menée auprès d'étudiants de Bachelor et de MBA sur leurs usages de l'intelligence artificielle générative. Ses travaux, inscrits dans une série de recherches sur l'adoption des nouvelles technologies, révèlent que l'IA n'est pas un outil neutre : elle amplifie les écarts existants entre profils étudiants plutôt qu'elle ne les comble. Trois comportements distincts ont été identifiés. Les étudiants les plus solides utilisent l'IA pour enrichir leur réflexion, vérifient systématiquement les résultats générés et remettent en question le contenu produit. Les étudiants plus fragiles tombent dans une surconfiance excessive, ce que la chercheuse appelle l'overreliance, qui atrophie leur esprit critique au point qu'ils ne détectent plus les erreurs de l'algorithme. Un troisième profil, composé d'étudiants compétents, refuse délibérément de déléguer certaines tâches à la machine pour préserver leur autonomie intellectuelle, au risque d'être perçus comme moins efficaces dans des contextes professionnels où la rapidité est valorisée. Ces fractures pédagogiques ont des conséquences directes sur le marché du travail. Un collaborateur incapable de détecter une erreur générée par l'IA peut mettre en danger son entreprise : des états financiers erronés, par exemple, peuvent provoquer un risque réputationnel majeur ou bloquer l'accès au financement. Face à ce risque, les recruteurs adaptent leurs processus de sélection pour identifier les candidats capables d'analyse critique, pas seulement ceux qui savent utiliser ChatGPT. L'Article 4 de l'IA Act européen renforce cette dynamique en imposant aux entreprises de garantir la littératie IA de leurs collaborateurs, ce qui repositionne la valeur humaine non plus sur l'exécution mais sur le jugement et la prise de décision éthique, là où la machine reste structurellement limitée. Ce constat pousse à repenser en profondeur le modèle éducatif institutionnel. Interdire l'IA en cours est jugé contre-productif par El Bouhali : les étudiants l'utilisent de toute façon, et l'ignorer prive les établissements d'une occasion pédagogique majeure. La réponse doit venir des institutions elles-mêmes, en intégrant explicitement la littératie IA dans les cursus, en formant les enseignants à encadrer ces usages, et en distinguant les tâches où l'IA est un levier de celles où elle constitue un raccourci appauvri. Les grandes écoles et universités qui tardent à opérer cette transformation risquent de diplômer des profils inadaptés aux exigences d'un marché qui cherche moins des utilisateurs d'outils que des professionnels capables de superviser, corriger et dépasser ce que les algorithmes produisent.

UEL'article 4 de l'IA Act impose aux entreprises européennes de garantir la littératie IA de leurs collaborateurs, ce qui oblige directement les établissements d'enseignement supérieur français à revoir leurs cursus sous peine de diplômer des profils inadaptés au marché.

SociétéOpinion
1 source
Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises
3Le Big Data 

Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises

Une étude publiée en avril 2026 par des chercheurs de l'Université de Pennsylvanie et de l'Université de Boston, intitulée "The AI Layoff Trap", modélise mathématiquement un mécanisme économique préoccupant lié à l'automatisation massive par l'IA. Les chiffres sont éloquents : plus de 100 000 postes ont disparu dans le secteur technologique en 2025, et 2026 s'annonce encore plus marqué avec déjà 61 000 suppressions d'emplois recensées. Des géants comme Amazon et Meta multiplient les vagues de licenciements, tandis que les chercheurs estiment que près de 80 % des travailleurs américains restent exposés à l'automatisation. L'étude utilise un modèle issu de la théorie des jeux pour démontrer que chaque entreprise, prise individuellement, agit de façon parfaitement rationnelle en adoptant l'IA afin de réduire ses coûts et maintenir sa compétitivité face à ses concurrents. Le problème, selon les auteurs, est que cette rationalité individuelle produit une irrationali­té collective. Moins d'emplois signifie moins de pouvoir d'achat, donc moins de consommation, donc une demande en recul dans tous les secteurs de l'économie. Les revenus des entreprises finissent par chuter, y compris celles qui ont massivement automatisé. Le mécanisme est décrit comme un dilemme du prisonnier appliqué à l'échelle macroéconomique : chaque acteur optimise sa survie à court terme, mais l'ensemble du système se déstabilise. Les entreprises qui n'automatisent pas perdent des parts de marché face à celles qui le font, ce qui les contraint à automatiser à leur tour, entretenant un cercle qui érode progressivement la demande dont toutes dépendent. Ce que rend particulièrement inquiétant le constat des chercheurs, c'est l'échec des solutions habituellement proposées. Le revenu universel de base, la redistribution fiscale du capital ou encore la formation professionnelle continue sont examinés et écartés : aucune de ces mesures ne modifie les incitations profondes qui poussent les entreprises vers l'automatisation massive. Tant que la pression concurrentielle reste intacte, chaque acteur continuera d'accélérer ses investissements en IA pour ne pas se laisser distancer, quelle que soit la politique redistributive en place. Cette étude s'inscrit dans un débat économique qui prend de l'ampleur alors que les grandes entreprises technologiques réallouent leurs budgets salariaux vers des infrastructures d'IA, posant une question structurelle à laquelle les gouvernements et les régulateurs n'ont pas encore trouvé de réponse convaincante.

UELes entreprises et travailleurs européens sont soumis aux mêmes dynamiques concurrentielles décrites par l'étude, ce qui renforce l'urgence du débat européen sur la régulation du marché du travail face à l'automatisation massive.

SociétéPaper
1 source
Ce que les données révèlent vraiment sur l'IA et votre emploi
4MIT Technology Review 

Ce que les données révèlent vraiment sur l'IA et votre emploi

Au sein de la Silicon Valley, l'idée d'une apocalypse de l'emploi causée par l'IA est désormais traitée comme une certitude. Dario Amodei, PDG d'Anthropic, a décrit l'IA comme "un substitut général de la main-d'oeuvre humaine" capable de réaliser tous les emplois en moins de cinq ans. Une chercheuse en impacts sociétaux chez Anthropic a quant à elle évoqué une possible récession à court terme et "l'effondrement de l'échelle des débuts de carrière". Ces déclarations alimentent une anxiété croissante chez les travailleurs, au point de renforcer les mouvements réclamant un moratoire sur la construction de centres de données. Alex Imas, économiste à l'Université de Chicago, a accepté de faire le point sur ce que l'on sait réellement, et surtout sur ce que l'on ignore. Son constat est sévère : les outils actuels pour prédire l'impact de l'IA sur l'emploi sont "lamentables". La mesure la plus utilisée, le taux d'"exposition" d'un métier à l'IA, consiste à comptabiliser combien de tâches qui le composent pourraient être automatisées. C'est la méthode qu'OpenAI a appliquée en décembre dernier à un catalogue gouvernemental américain de milliers de tâches professionnelles, datant de 1998, constatant par exemple qu'un agent immobilier est exposé à 28 %. Anthropic a utilisé ce même référentiel en février pour analyser des millions de conversations avec Claude. Mais pour Imas, "l'exposition seule est un outil totalement inutile pour prédire les suppressions de postes" : savoir qu'une tâche peut être automatisée ne dit rien sur ce que fera concrètement l'employeur de ce gain de productivité. L'enjeu central est en réalité une question d'économie industrielle que personne ne sait encore trancher : si un développeur peut produire en un jour ce qui lui prenait trois jours grâce à l'IA, l'entreprise va-t-elle embaucher moins de développeurs ou au contraire en recruter davantage pour aller plus vite ? La réponse dépend du secteur, de la structure des marchés et de la concurrence. Dans un marché compétitif, les gains de productivité se répercutent souvent en baisse de prix, ce qui stimule la demande et donc l'emploi. Mais ce mécanisme ne s'applique pas uniformément. Imas plaide pour que les économistes collectent d'urgence des données granulaires sur la façon dont les entreprises réallouent réellement leur main-d'oeuvre après l'adoption de l'IA, car sans ces données, toute politique publique sur l'emploi reste aveugle. Le débat dépasse donc largement les prédictions catastrophistes : il appelle à une observation rigoureuse de terrain, que personne n'a encore vraiment commencée.

UELe manque de données empiriques rigoureuses sur la réallocation réelle de la main-d'oeuvre après adoption de l'IA fragilise également les politiques publiques européennes sur l'emploi et les débats autour de l'AI Act.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour