Aller au contenu principal
OpenAI veut cacher ce chiffre : devinez combien l’IA a ajouté à l’économie
SociétéLe Big Data6sem

OpenAI veut cacher ce chiffre : devinez combien l’IA a ajouté à l’économie

Résumé IASource uniqueImpact UE
Source originale ↗·

Malgré 410 milliards de dollars investis dans l'intelligence artificielle en 2025 aux États-Unis, les effets concrets sur l'économie américaine restent introuvables dans les données macroéconomiques. Goldman Sachs a officiellement revu sa position : ses analystes estiment désormais que l'IA n'a eu aucun impact visible sur la croissance américaine jusqu'à cette date. Brian Peters, ancien régulateur de la Réserve fédérale de New York, partage ce constat — impressionné par les capacités technologiques, il juge les retombées économiques à court terme impossibles à démontrer. Des chercheurs du Bureau national de la recherche économique parlent même d'un « paradoxe de la productivité » : les bénéfices perçus par les entreprises dépassent largement ceux que l'on peut mesurer dans les statistiques officielles. Dario Perkins, spécialiste macroéconomique chez TS Lombard, résume la situation sans détour : « Rien ne permet d'affirmer que son déploiement a réellement dopé la productivité ou pesé sur l'emploi aux États-Unis. »

Ce décalage entre dépenses massives et résultats mesurables s'explique par deux phénomènes structurels. D'abord, une question géographique : quand une entreprise américaine achète des semi-conducteurs fabriqués à Taïwan, l'essentiel de l'impact économique bénéficie à ce pays, pas aux États-Unis. Ensuite, une question de diffusion : accélérer le travail d'un employé individuel ne transforme pas automatiquement les chaînes d'approvisionnement entières. Les gains restent confinés à l'intérieur des entreprises, sans se propager à l'économie globale. Ce constat est d'autant plus frappant qu'en 2025, même les analystes les plus prudents estimaient que l'IA soutenait au moins marginalement la croissance du PIB — une position que beaucoup abandonnent aujourd'hui.

Aaron Chatterji, économiste en chef d'OpenAI, défend pourtant une lecture différente. Pour lui, l'IA s'inscrit dans la lignée de technologies de rupture comme l'électricité ou Internet, dont les effets macroéconomiques n'ont été visibles que des années après leur déploiement massif. Les entreprises doivent d'abord réorganiser leurs processus, repenser leurs modes de travail et déployer l'IA à grande échelle avant que les gains n'apparaissent dans les données officielles. Une étude de McKinsey abonde dans ce sens, estimant que l'IA pourrait injecter des milliers de milliards de dollars dans l'économie mondiale d'ici 2030. Le marché semble pour l'instant parier sur ce scénario optimiste : les investissements pourraient atteindre 660 milliards de dollars en 2026 selon le Financial Times. Mais l'impatience grandit chez les analystes, et la question qui s'impose est simple : à quel moment les chiffres devront-ils enfin confirmer les promesses ?

Impact France/UE

Le débat sur l'absence de retombées économiques mesurables de l'IA alimente la réflexion européenne sur la pertinence des investissements publics et privés dans cette technologie, notamment dans le cadre des stratégies industrielles de l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L’IA va vous rendre obsolète : OpenAI publie 13 pages de conseils pour éviter la crise
1Le Big Data 

L’IA va vous rendre obsolète : OpenAI publie 13 pages de conseils pour éviter la crise

OpenAI a publié le 8 avril 2026 un document de politique publique de 13 pages intitulé "Industrial Policy for the Intelligence Age: Ideas to Keep People First", dans lequel l'entreprise formule des recommandations concrètes pour réorganiser l'économie face à l'automatisation. Sam Altman y propose notamment la création d'un fonds public qui investirait dans l'économie de l'IA avant de redistribuer les gains directement aux citoyens, une révision profonde de la fiscalité pour taxer les profits issus de l'automatisation plutôt que le travail humain, et une expérimentation de la semaine de 32 heures sans réduction de salaire. L'entreprise compare l'ampleur de cette transition à la révolution industrielle et évoque l'émergence imminente de systèmes d'intelligence artificielle capables de surpasser l'humain dans de nombreux domaines. Ce document est inhabituel pour une entreprise technologique de cette envergure, car il revient à demander publiquement que son propre secteur soit davantage taxé. Pour les millions de travailleurs exposés à l'automatisation, les enjeux sont considérables : certains métiers sont appelés à disparaître sans que de nouveaux postes n'émergent en nombre suffisant pour compenser. La proposition de redistribution via un fonds public cherche à éviter une fracture économique dans laquelle les gains de productivité resteraient concentrés entre les mains d'un petit nombre d'acteurs. La semaine de 32 heures, conditionnée aux gains de productivité générés par les outils d'IA, représente une façon de partager ces gains avec les salariés sans rogner leurs revenus. OpenAI publie ce document dans un contexte particulier : l'entreprise est valorisée à plusieurs centaines de milliards de dollars et se prépare à une potentielle introduction en bourse, ce qui l'oblige à soigner son image auprès des régulateurs, des gouvernements et de l'opinion publique. Plusieurs dizaines de chercheurs d'OpenAI auraient contribué à la rédaction de ce texte. Des experts y voient une manœuvre de relations publiques destinée à rassurer avant une levée de fonds ou une cotation boursière, d'autant que les propositions restent très floues sur leur mise en oeuvre concrète : le fonctionnement du fonds public n'est pas détaillé, les modalités fiscales ne sont pas chiffrées, et OpenAI annonce surtout des bourses de recherche pour explorer ces pistes dans les prochains mois. La crédibilité du document dépendra donc de la capacité de l'entreprise, et des gouvernements qui pourraient s'en inspirer, à transformer ces intentions déclarées en politiques effectives avant que la vague d'automatisation ne prenne de vitesse les systèmes de protection sociale existants.

UELes propositions d'OpenAI sur la taxation de l'automatisation et la semaine de 32 heures pourraient alimenter les débats législatifs en France et au niveau européen sur le partage des gains de productivité liés à l'IA.

SociétéReglementation
1 source
Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises
2Le Big Data 

Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises

Une étude publiée en avril 2026 par des chercheurs de l'Université de Pennsylvanie et de l'Université de Boston, intitulée "The AI Layoff Trap", modélise mathématiquement un mécanisme économique préoccupant lié à l'automatisation massive par l'IA. Les chiffres sont éloquents : plus de 100 000 postes ont disparu dans le secteur technologique en 2025, et 2026 s'annonce encore plus marqué avec déjà 61 000 suppressions d'emplois recensées. Des géants comme Amazon et Meta multiplient les vagues de licenciements, tandis que les chercheurs estiment que près de 80 % des travailleurs américains restent exposés à l'automatisation. L'étude utilise un modèle issu de la théorie des jeux pour démontrer que chaque entreprise, prise individuellement, agit de façon parfaitement rationnelle en adoptant l'IA afin de réduire ses coûts et maintenir sa compétitivité face à ses concurrents. Le problème, selon les auteurs, est que cette rationalité individuelle produit une irrationali­té collective. Moins d'emplois signifie moins de pouvoir d'achat, donc moins de consommation, donc une demande en recul dans tous les secteurs de l'économie. Les revenus des entreprises finissent par chuter, y compris celles qui ont massivement automatisé. Le mécanisme est décrit comme un dilemme du prisonnier appliqué à l'échelle macroéconomique : chaque acteur optimise sa survie à court terme, mais l'ensemble du système se déstabilise. Les entreprises qui n'automatisent pas perdent des parts de marché face à celles qui le font, ce qui les contraint à automatiser à leur tour, entretenant un cercle qui érode progressivement la demande dont toutes dépendent. Ce que rend particulièrement inquiétant le constat des chercheurs, c'est l'échec des solutions habituellement proposées. Le revenu universel de base, la redistribution fiscale du capital ou encore la formation professionnelle continue sont examinés et écartés : aucune de ces mesures ne modifie les incitations profondes qui poussent les entreprises vers l'automatisation massive. Tant que la pression concurrentielle reste intacte, chaque acteur continuera d'accélérer ses investissements en IA pour ne pas se laisser distancer, quelle que soit la politique redistributive en place. Cette étude s'inscrit dans un débat économique qui prend de l'ampleur alors que les grandes entreprises technologiques réallouent leurs budgets salariaux vers des infrastructures d'IA, posant une question structurelle à laquelle les gouvernements et les régulateurs n'ont pas encore trouvé de réponse convaincante.

UELes entreprises et travailleurs européens sont soumis aux mêmes dynamiques concurrentielles décrites par l'étude, ce qui renforce l'urgence du débat européen sur la régulation du marché du travail face à l'automatisation massive.

SociétéPaper
1 source
« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI
3Le Big Data 

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

Sam Altman a accordé une interview rare et sans filtre à la journaliste Laurie Segall pour son podcast "Mostly Human", dans laquelle le PDG d'OpenAI a tenu des propos d'une franchise inhabituelle sur l'avenir de l'intelligence artificielle et les choix stratégiques qui façonnent son entreprise. Au coeur de ces révélations : l'abandon de Sora, le générateur de vidéos ultra-réalistes d'OpenAI, présenté comme une décision "très difficile" prise à la dernière minute alors qu'un partenariat d'un milliard de dollars avec Disney était déjà engagé. Altman a personnellement appelé Josh D'Amaro, dirigeant chez Disney, pour annuler l'accord. Parallèlement, son directeur des opérations Brad Lightcap a révélé que GPT-5.4, âgé de quelques jours à peine, affichait déjà un rythme de revenus d'un milliard de dollars annualisé, traitant cinq billions de tokens par jour, avec des cycles de développement qui s'accélèrent à une vitesse stupéfiante. L'abandon de Sora répond à deux logiques qui se renforcent mutuellement. La première est éthique : Altman craignait de concevoir des mécanismes de récompense générant une dépendance incontrôlable chez les utilisateurs, au moment même où la justice américaine condamnait Meta et Google à payer des centaines de millions de dollars pour avoir délibérément rendu des adolescents accros à leurs plateformes, dont une amende record de 375 millions de dollars pour Meta. La seconde est purement technique : maintenir Sora en vie aurait vampirisé les ressources de calcul nécessaires au développement de la prochaine génération d'IA. Dans une industrie où la puissance computationnelle est la ressource la plus rare et la plus stratégique, chaque serveur compte, et le sacrifice d'un produit à succès au profit de la recherche fondamentale traduit une vision de long terme assumée. Ces aveux s'inscrivent dans un contexte de pression intense sur les grandes plateformes technologiques. Les procès intentés contre Meta et Google à Los Angeles et au Nouveau-Mexique marquent un tournant dans la responsabilisation juridique des géants du numérique, comparés désormais à l'industrie du tabac pour leurs pratiques addictives. OpenAI, en pleine transformation de statut à but non lucratif vers une structure commerciale valorisée à plusieurs centaines de milliards de dollars, navigue entre ambition démiurgique et nécessité de se démarquer éthiquement de ses concurrents. Les déclarations d'Altman sur la "scission de l'humanité" et la fin du salariat de masse, aussi provocatrices soient-elles, signalent une entreprise qui ne cherche plus à minimiser l'ampleur de ce qu'elle construit, mais à en assumer pleinement la portée historique.

UELes déclarations d'Altman sur la fin du salariat de masse et la 'scission de l'humanité' alimentent directement le débat européen sur l'AI Act et les garde-fous sociaux à imposer aux systèmes d'IA générale.

SociétéOpinion
1 source
Votre ado confie tout à l’IA ? Meta vous laisse enfin regarder
4Le Big Data 

Votre ado confie tout à l’IA ? Meta vous laisse enfin regarder

Meta a annoncé le lancement d'une nouvelle fonctionnalité de contrôle parental appelée "Insights", permettant aux parents de suivre les échanges entre leurs adolescents et l'assistant Meta AI. Disponible dès maintenant dans plusieurs pays anglophones, cet outil donne accès à un résumé hebdomadaire des grands thèmes abordés par les mineurs lors de leurs conversations avec l'IA sur les sept derniers jours. Les catégories proposées incluent l'école, le sport, les voyages, le divertissement, l'écriture, la santé et le bien-être. L'accès ne se fait pas mot à mot : les parents reçoivent une synthèse thématique, non une retranscription intégrale des échanges. Le déploiement à l'international est prévu dans les semaines à venir. Cette initiative répond à une préoccupation croissante autour de l'usage intensif des assistants IA par les adolescents, qui y confient parfois des sujets sensibles que leurs parents ignorent. En offrant une fenêtre partielle sur ces échanges, Meta cherche à rassurer les familles sans sacrifier complètement la vie privée des mineurs. L'outil est également conçu pour rester actif même lorsque l'IA refuse de répondre à certaines demandes : les parents peuvent voir qu'un sujet a été abordé, même si l'assistant n'a pas fourni de réponse directe. Sur les thématiques les plus délicates, notamment le suicide et l'automutilation, Meta prépare des alertes spécifiques pour prévenir les parents en temps réel si leur enfant tente d'aborder ces sujets avec l'IA. Cette annonce s'inscrit dans un contexte de pression croissante sur les géants du numérique pour mieux protéger les mineurs en ligne, alors que les législateurs américains et européens multiplient les initiatives de régulation. Meta, souvent accusé de négliger la sécurité des adolescents sur ses plateformes, avait déjà mis en place des comptes adolescents avec des restrictions intégrées. Une étude interne de l'entreprise avait pourtant suggéré que la supervision parentale n'avait qu'un impact limité sur l'usage excessif des réseaux sociaux chez les jeunes, ce qui n'a pas empêché le groupe de renforcer son dispositif. En collaboration avec le Cyberbullying Research Center, Meta prévoit également de proposer des "amorces de conversation" pour aider les parents à aborder le sujet de l'IA avec leurs enfants. La fonctionnalité Insights sera améliorée progressivement, sur la base des retours des familles et d'experts, dans une approche que Meta présente comme évolutive plutôt que définitive.

UELa fonctionnalité sera déployée internationalement dans les semaines à venir, potentiellement en France, et s'inscrit dans le contexte des débats européens sur la protection des mineurs face aux assistants IA.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour