Aller au contenu principal
Trois points sur l'IA à surveiller, selon un économiste nobélisé
SociétéMIT Technology Review2h

Trois points sur l'IA à surveiller, selon un économiste nobélisé

Résumé IASource uniqueImpact UE
Source originale ↗·

Quelques mois avant de recevoir le prix Nobel d'économie en 2024, Daron Acemoglu avait publié une étude qui lui avait valu peu d'amis dans la Silicon Valley : contrairement aux promesses des grands patrons de la tech, l'IA n'allait pas révolutionner le travail de bureau ni provoquer une vague massive de destructions d'emplois. Deux ans plus tard, les données lui donnent encore raison, les études ne montrent aucun effet mesurable de l'IA sur les taux d'emploi ou les licenciements. Pourtant, le débat s'est radicalement amplifié : Bernie Sanders en parle dans ses meetings, un candidat au poste de gouverneur de Californie propose de taxer les entreprises qui utilisent l'IA pour financer les victimes de "licenciements liés à l'IA", et même des économistes autrefois sceptiques commencent à envisager un choc structurel. MIT Technology Review a interrogé Acemoglu pour savoir si les dernières avancées de l'IA avaient changé sa thèse.

Sur les agents autonomes, l'une des évolutions les plus marquantes depuis sa publication, Acemoglu reste prudent. Ces outils capables d'agir de manière indépendante pour accomplir des objectifs complexes sont présentés par les entreprises tech comme un substitut potentiel à des équipes entières. Acemoglu n'y croit pas : un poste de travail n'est pas une seule tâche, mais un assemblage de dizaines de compétences hétérogènes. Un technicien en radiologie, par exemple, jongle avec environ 30 tâches différentes, de la collecte des antécédents médicaux à l'archivage des mammographies. Un humain passe naturellement d'un outil à l'autre, d'un format à l'autre ; un agent IA nécessiterait autant de protocoles spécifiques que de tâches distinctes. Si les agents ne parviennent pas à orchestrer fluidement cette diversité, une large partie des emplois restera hors de leur portée.

Ce qui inquiète davantage Acemoglu aujourd'hui, c'est un autre phénomène : les grandes entreprises d'IA recrutent massivement des économistes de premier rang pour façonner le récit autour de leur technologie. OpenAI a embauché Ronnie Chatterji de l'université Duke en 2024 comme économiste en chef, et travaille avec Jason Furman, ancien conseiller économique de Barack Obama à Harvard. Anthropic a réuni un groupe de dix économistes reconnus. Google DeepMind vient d'annoncer le recrutement d'Alex Imas, de l'université de Chicago, comme "directeur de l'économie de l'AGI". Acemoglu comprend la logique commerciale, le scepticisme du public sur l'emploi est croissant et ces entreprises ont tout intérêt à orienter le débat. Mais il craint que cette concentration de ressources intellectuelles et économiques ne serve surtout à légitimer une vision du monde favorable à quelques grandes plateformes, au détriment d'une réflexion véritablement indépendante sur les conséquences sociales de l'IA.

Impact France/UE

Le débat sur l'impact de l'IA sur l'emploi, dominé par des économistes recrutés par les grandes plateformes américaines, risque d'influencer indirectement les discussions réglementaires européennes et les politiques du marché du travail de l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Un plan d'action pour utiliser l'IA au service de la démocratie
1MIT Technology Review 

Un plan d'action pour utiliser l'IA au service de la démocratie

Depuis l'invention de l'imprimerie jusqu'à l'essor des médias de masse, chaque révolution de l'information a reconfiguré les formes de gouvernance. Nous entrons aujourd'hui dans une transformation d'une ampleur comparable : l'intelligence artificielle est en train de devenir le principal intermédiaire par lequel les citoyens se forment une opinion et participent à la vie démocratique. Les moteurs de recherche sont déjà largement pilotés par des algorithmes, mais la prochaine génération d'assistants IA ira bien plus loin : elle synthétisera l'information, la mettra en cadre et la présentera avec autorité. Pour un nombre croissant de personnes, interroger une IA deviendra le réflexe par défaut pour se faire une opinion sur un candidat, une loi ou une personnalité publique. Parallèlement, les agents IA personnels commencent à agir au nom de leurs utilisateurs : ils mènent des recherches, rédigent des courriers, soutiennent des causes, et peuvent même orienter des décisions aussi concrètes que le vote sur un référendum ou la réponse à un courrier administratif. Ce double mouvement pose des risques considérables pour les démocraties. L'expérience des réseaux sociaux a déjà montré qu'un algorithme optimisé pour l'engagement, sans agenda politique explicite, peut produire polarisation et radicalisation. Un agent IA qui connaît vos préférences et vos angoisses, conçu pour vous garder actif, expose aux mêmes dérives, avec une subtilité supplémentaire : il se présente comme votre allié, parle en votre nom, et gagne précisément en confiance par cette proximité. À l'échelle collective, les effets deviennent encore plus imprévisibles. Des recherches montrent que des agents individuellement neutres peuvent, en interagissant à grande échelle, générer des biais collectifs. Un espace public où chacun dispose d'un agent personnalisé, parfaitement accordé à ses convictions existantes, n'est plus un espace public : c'est un archipel de mondes privés, chacun cohérent en lui-même, mais collectivement hostile à la délibération partagée qu'exige la démocratie. Cette transformation ne s'annonce pas : elle est déjà en cours, portée par des choix de conception effectués aujourd'hui dans les laboratoires et les départements produit des grandes entreprises technologiques. Les institutions démocratiques ont été conçues pour un monde où le pouvoir se construisait différemment, à une vitesse différente. Trois mutations simultanées les bousculent désormais : la façon dont les citoyens accèdent à la vérité, la façon dont ils exercent leur agentivité civique, et la façon dont se structurent les délibérations collectives. Des acteurs comme Google, OpenAI, Anthropic ou Meta façonnent, souvent sans en avoir pleinement conscience, les nouvelles infrastructures de l'opinion publique. La question n'est plus de savoir si l'IA redéfinira la citoyenneté, mais si les sociétés se donneront les moyens d'en orienter les conséquences avant que les règles du jeu ne soient écrites sans elles.

UELes institutions démocratiques européennes doivent adapter leur cadre réglementaire face aux agents IA qui médiatisent l'opinion publique et risquent de fragmenter la délibération civique des citoyens.

💬 Le problème avec les réseaux sociaux, c'était un algo sans visage qui optimisait dans le vide. Là, c'est un agent qui te connaît, qui parle en ton nom, et qui gagne ta confiance précisément parce qu'il est "de ton côté". C'est une marche de plus, et pas la plus petite.

SociétéOpinion
1 source
L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?
2The Information AI 

L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?

En février dernier, Alicia Kalogeropoulos, 35 ans, et son mari Alex ont appris que sa tumeur cérébrale était de retour. Diagnostiquée une première fois en 2018, Alicia avait alors subi une opération, avant de rejoindre trois ans plus tard un essai clinique pour un traitement oral qui avait réussi à contenir la maladie pendant plusieurs années. Mais la rémission avait ses limites. Face à la récidive, les oncologues du Memorial Sloan Kettering Cancer Center de New York ont recommandé une nouvelle chirurgie, suivie probablement d'une chimiothérapie et d'une radiothérapie. Son mari, PDG dans la tech, savait ce que les études lui avaient appris : ce protocole ne guérit pas. Il a alors ouvert ChatGPT et formulé une demande précise : concevoir un plan de traitement centré sur les thérapies n'affaiblissant pas le système immunitaire, en explorant toutes les voies d'attaque disponibles contre la tumeur. Ce recours à l'intelligence artificielle comme conseiller médical de second rang illustre une tension croissante entre l'urgence vécue par les patients et les limites institutionnelles de la médecine. Pour des familles confrontées à des diagnostics pronostiquement sombres, les chatbots d'IA représentent un accès immédiat à une synthèse d'une littérature médicale impossible à lire seul. L'enjeu n'est pas de remplacer le médecin, mais d'arriver en consultation avec des questions que personne d'autre n'aurait pensé à poser. Cette histoire s'inscrit dans un débat plus large sur la place de l'IA dans la prise de décision médicale. Des outils comme ChatGPT ou ses concurrents ne disposent pas de données patients en temps réel, ne peuvent pas commander d'examens ni évaluer des images médicales, et leurs recommandations ne sont pas validées cliniquement. Pourtant, à mesure que ces modèles intègrent davantage de littérature biomédicale, certains médecins commencent eux-mêmes à les utiliser comme aide à la décision. La question de fond reste entière : jusqu'où peut-on faire confiance à une IA pour explorer des options que des spécialistes humains, submergés de patients, n'auraient pas le temps d'envisager ?

SociétéOpinion
1 source
AEO, GEO : les nouvelles règles pour exister à l’ère de l’IA
3Le Big Data 

AEO, GEO : les nouvelles règles pour exister à l’ère de l’IA

Une étude du Pew Research Center réalisée en mars 2025 sur 68 879 recherches Google révèle un basculement profond dans la façon dont les internautes consomment l'information en ligne. Lorsqu'un résumé généré par l'IA apparaît dans les résultats, seulement 8 % des utilisateurs cliquent sur un lien classique — soit presque deux fois moins que sans résumé. Un internaute sur quatre quitte même la page sans cliquer nulle part. Ces chiffres font écho aux données de BrightEdge, qui mesure une hausse de 49 % des impressions sur Google depuis l'introduction des aperçus IA, accompagnée d'une chute de 30 % du taux de clics. Seer Interactive enfonce le clou : sur des millions d'impressions analysées, le taux de clic organique est passé de 1,76 % à 0,61 % pour les requêtes intégrant ces résumés, et les liens sponsorisés ont également reculé. Ce phénomène redéfinit les règles du jeu pour les marques et les éditeurs. L'information est désormais consommée directement dans la réponse IA, sans passage par les sites sources. Le trafic organique — jusqu'ici colonne vertébrale de l'acquisition en ligne — s'érode structurellement, indépendamment de la qualité du référencement traditionnel. Gartner avait anticipé dès 2024 une baisse significative des recherches classiques d'ici 2026 : les données actuelles confirment cette trajectoire. Pour les marques, l'enjeu n'est plus d'apparaître en première page Google, mais d'être intégrées dans les réponses synthétiques elles-mêmes — ce qui implique de repenser entièrement leur stratégie de contenu. Deux disciplines émergent en réponse à ce changement. L'AEO (Answer Engine Optimization) consiste à structurer le contenu pour qu'il soit directement exploitable par une IA : titres sous forme de questions, réponses courtes et denses, données structurées balisées. L'objectif est de devenir la source citée au moment précis où une question est posée. Le GEO (Generative Engine Optimization), plus ambitieux, vise à s'imposer comme référence globale dans l'écosystème informationnel que parcourent des moteurs comme Perplexity AI ou Gemini. Or, selon McKinsey, seulement 5 à 10 % des sources utilisées par ces IA proviennent directement des sites de marques — le reste provient d'articles tiers, d'avis, de forums. BrightEdge ajoute que 89 % des sources citées dans les résumés IA proviennent de pages classées au-delà de la 100e position sur Google, ce qui signifie que la crédibilité perçue et la qualité structurelle du contenu priment désormais sur le rang dans les SERP. Les marques qui seront citées dans ces réponses générées bénéficieront d'un avantage de visibilité croissant — et celles qui tardent à s'adapter risquent tout simplement de disparaître du radar.

UELes éditeurs et marques françaises voient leur trafic organique s'éroder structurellement avec la généralisation des résumés IA dans les moteurs de recherche, les forçant à adopter de nouvelles stratégies de contenu (AEO/GEO) pour rester visibles.

💬 Les chiffres sont brutaux : 0,61 % de taux de clic sur les requêtes avec résumé IA, c'est la mort lente du trafic organique tel qu'on le connaît. Ce que Gartner annonçait en 2024 comme projection, c'est maintenant du concret dans les dashboards. La stat sur les 89 % de sources citées au-delà de la 100e position Google est contre-intuitive, mais ça change tout : fini l'obsession du ranking, place à la crédibilité structurelle du contenu.

SociétéOpinion
1 source
Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises
4Le Big Data 

Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises

Une étude publiée en avril 2026 par des chercheurs de l'Université de Pennsylvanie et de l'Université de Boston, intitulée "The AI Layoff Trap", modélise mathématiquement un mécanisme économique préoccupant lié à l'automatisation massive par l'IA. Les chiffres sont éloquents : plus de 100 000 postes ont disparu dans le secteur technologique en 2025, et 2026 s'annonce encore plus marqué avec déjà 61 000 suppressions d'emplois recensées. Des géants comme Amazon et Meta multiplient les vagues de licenciements, tandis que les chercheurs estiment que près de 80 % des travailleurs américains restent exposés à l'automatisation. L'étude utilise un modèle issu de la théorie des jeux pour démontrer que chaque entreprise, prise individuellement, agit de façon parfaitement rationnelle en adoptant l'IA afin de réduire ses coûts et maintenir sa compétitivité face à ses concurrents. Le problème, selon les auteurs, est que cette rationalité individuelle produit une irrationali­té collective. Moins d'emplois signifie moins de pouvoir d'achat, donc moins de consommation, donc une demande en recul dans tous les secteurs de l'économie. Les revenus des entreprises finissent par chuter, y compris celles qui ont massivement automatisé. Le mécanisme est décrit comme un dilemme du prisonnier appliqué à l'échelle macroéconomique : chaque acteur optimise sa survie à court terme, mais l'ensemble du système se déstabilise. Les entreprises qui n'automatisent pas perdent des parts de marché face à celles qui le font, ce qui les contraint à automatiser à leur tour, entretenant un cercle qui érode progressivement la demande dont toutes dépendent. Ce que rend particulièrement inquiétant le constat des chercheurs, c'est l'échec des solutions habituellement proposées. Le revenu universel de base, la redistribution fiscale du capital ou encore la formation professionnelle continue sont examinés et écartés : aucune de ces mesures ne modifie les incitations profondes qui poussent les entreprises vers l'automatisation massive. Tant que la pression concurrentielle reste intacte, chaque acteur continuera d'accélérer ses investissements en IA pour ne pas se laisser distancer, quelle que soit la politique redistributive en place. Cette étude s'inscrit dans un débat économique qui prend de l'ampleur alors que les grandes entreprises technologiques réallouent leurs budgets salariaux vers des infrastructures d'IA, posant une question structurelle à laquelle les gouvernements et les régulateurs n'ont pas encore trouvé de réponse convaincante.

UELes entreprises et travailleurs européens sont soumis aux mêmes dynamiques concurrentielles décrites par l'étude, ce qui renforce l'urgence du débat européen sur la régulation du marché du travail face à l'automatisation massive.

SociétéPaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour