Aller au contenu principal
Avec l’intelligence artificielle, moins de travail ou davantage de « bullshit jobs » ?
SociétéLe Monde Pixels6sem

Avec l’intelligence artificielle, moins de travail ou davantage de « bullshit jobs » ?

Résumé IASource uniqueImpact UE
Source originale ↗·

Thomas Breda, économiste reconnu spécialiste du marché du travail, publie dans Le Monde une chronique sur l'une des questions centrales soulevées par l'essor de l'intelligence artificielle : les gains de productivité considérables qu'elle génère vont-ils permettre de travailler moins, ou au contraire alimenter une prolifération de tâches vides de sens ? Sa thèse est que cette question reste largement ignorée — culturellement, budgétairement et politiquement.

L'enjeu est majeur pour des millions de salariés. Historiquement, les révolutions technologiques ont rarement débouché sur une réduction du temps de travail : les gains ont surtout été captés par le capital ou redistribués sous forme de nouveaux emplois peu utiles, ce que le sociologue américain David Graeber appelait les bullshit jobs. Si l'IA suit le même schéma, les promesses de libération du travail resteront lettre morte pour la majorité des actifs.

Ce débat s'inscrit dans un contexte où les États et les entreprises peinent à articuler une vision collective des transformations induites par l'IA. Réduire le temps de travail supposerait des choix politiques forts — réforme fiscale, partage des gains de productivité, régulation — que ni les gouvernements européens ni les grandes entreprises tech ne semblent prêts à assumer. La question de qui bénéficie de l'IA reste, selon Breda, le vrai impensé du moment.

Impact France/UE

La question du partage des gains de productivité de l'IA interpelle directement les gouvernements européens et les partenaires sociaux sur la nécessité de réformes fiscales et d'une régulation du temps de travail.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique
1Le Big Data 

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique

Meriem El Bouhali, enseignante-chercheuse à l'ESLSCA Paris Business School, publie les premiers résultats d'une enquête qualitative menée auprès d'étudiants de Bachelor et de MBA sur leurs usages de l'intelligence artificielle générative. Ses travaux, inscrits dans une série de recherches sur l'adoption des nouvelles technologies, révèlent que l'IA n'est pas un outil neutre : elle amplifie les écarts existants entre profils étudiants plutôt qu'elle ne les comble. Trois comportements distincts ont été identifiés. Les étudiants les plus solides utilisent l'IA pour enrichir leur réflexion, vérifient systématiquement les résultats générés et remettent en question le contenu produit. Les étudiants plus fragiles tombent dans une surconfiance excessive, ce que la chercheuse appelle l'overreliance, qui atrophie leur esprit critique au point qu'ils ne détectent plus les erreurs de l'algorithme. Un troisième profil, composé d'étudiants compétents, refuse délibérément de déléguer certaines tâches à la machine pour préserver leur autonomie intellectuelle, au risque d'être perçus comme moins efficaces dans des contextes professionnels où la rapidité est valorisée. Ces fractures pédagogiques ont des conséquences directes sur le marché du travail. Un collaborateur incapable de détecter une erreur générée par l'IA peut mettre en danger son entreprise : des états financiers erronés, par exemple, peuvent provoquer un risque réputationnel majeur ou bloquer l'accès au financement. Face à ce risque, les recruteurs adaptent leurs processus de sélection pour identifier les candidats capables d'analyse critique, pas seulement ceux qui savent utiliser ChatGPT. L'Article 4 de l'IA Act européen renforce cette dynamique en imposant aux entreprises de garantir la littératie IA de leurs collaborateurs, ce qui repositionne la valeur humaine non plus sur l'exécution mais sur le jugement et la prise de décision éthique, là où la machine reste structurellement limitée. Ce constat pousse à repenser en profondeur le modèle éducatif institutionnel. Interdire l'IA en cours est jugé contre-productif par El Bouhali : les étudiants l'utilisent de toute façon, et l'ignorer prive les établissements d'une occasion pédagogique majeure. La réponse doit venir des institutions elles-mêmes, en intégrant explicitement la littératie IA dans les cursus, en formant les enseignants à encadrer ces usages, et en distinguant les tâches où l'IA est un levier de celles où elle constitue un raccourci appauvri. Les grandes écoles et universités qui tardent à opérer cette transformation risquent de diplômer des profils inadaptés aux exigences d'un marché qui cherche moins des utilisateurs d'outils que des professionnels capables de superviser, corriger et dépasser ce que les algorithmes produisent.

UEL'article 4 de l'IA Act impose aux entreprises européennes de garantir la littératie IA de leurs collaborateurs, ce qui oblige directement les établissements d'enseignement supérieur français à revoir leurs cursus sous peine de diplômer des profils inadaptés au marché.

SociétéOpinion
1 source
2Next INpact 

Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

L'intelligence artificielle générative s'invite désormais dans les cabinets d'avocats d'affaires, transformant en profondeur la relation entre juristes et clients. Alexandra Iteanu, avocate spécialiste des questions numériques, observe depuis environ un an un phénomène nouveau : des clients arrivent en consultation avec des contrats déjà rédigés par ChatGPT ou d'autres outils, voire avec des stratégies contentieuses esquissées par l'IA. Sarah Jelin, avocate d'affaires à son compte, dit avoir eu entre les mains au moins un pacte entièrement généré par IA, une expérience qu'elle juge contre-productive : corriger le document lui prendrait plus de temps que de le rédiger elle-même. Jordan Illouz, associé chez Advant Altana, cabinet d'une centaine de personnes spécialisé en contentieux commercial, n'a pas encore été confronté massivement à cette pratique, mais anticipe que cela ne saurait tarder. Côté interne, les chiffres parlent d'eux-mêmes : selon un sondage Lefebvre Dalloz et CSA Research réalisé auprès de 627 professionnels du droit, 72 % d'entre eux utilisent l'IA quotidiennement, via des outils grand public ou des plateformes spécialisées secteur juridique. Ce glissement redéfinit le rôle de l'avocat de manière analogue à ce que vivent traducteurs et développeurs depuis quelques années : le professionnel passe d'une logique de production à une logique de relecture et de validation. Pour les clients, l'accès à un premier niveau de conseil juridique devient immédiat et gratuit, ce qui peut sembler libérateur. Mais la qualité des documents produits reste inégale, et les erreurs dans un contrat ou une stratégie contentieuse peuvent avoir des conséquences financières et juridiques sévères. L'IA, entraînée sur des corpus généraux, ignore souvent les nuances du droit applicable, les clauses négociées implicitement dans un secteur donné, ou les jurisprudences récentes. Le risque est réel que des entreprises, convaincues d'avoir fait des économies, découvrent trop tard les lacunes de documents mal balisés. Ce phénomène s'inscrit dans une transformation plus large du marché des services intellectuels à haute valeur ajoutée, où l'IA joue de plus en plus le rôle de premier filtre. Les grands cabinets, qui travaillent sur des dossiers complexes et multicouches, semblent pour l'instant moins exposés que les structures de taille intermédiaire ou les avocats indépendants, dont la clientèle est davantage tentée d'automatiser les actes courants. La question de la responsabilité juridique en cas d'erreur d'un document généré par IA reste entière, et aucun cadre réglementaire clair ne s'est encore imposé en France. Les avocats spécialisés dans le numérique, comme Alexandra Iteanu, se trouvent en première ligne pour négocier cette transition, appelés à renouveler la confiance que leurs clients leur accordent sur un terrain où la machine s'est invitée sans crier gare.

UEL'absence de cadre réglementaire clair en France sur la responsabilité des documents juridiques générés par IA expose les entreprises et cabinets français à des risques contentieux croissants, sans filet de sécurité légal.

SociétéOpinion
1 source
3Le Big Data 

L’intelligence artificielle transforme l’expérience collaborateur malgré un déficit d’écoute des directions

Le rapport 2026 de Qualtrics sur l'expérience collaborateur, conduit auprès de plus de 33 000 salariés dans 24 pays, révèle que 80 % des employés utilisent des outils d'intelligence artificielle non fournis par leur employeur. Ce phénomène, désigné sous le terme de "Shadow AI", se manifeste indépendamment des politiques internes et des dispositifs officiels déployés par les directions informatiques. L'étude montre également que l'introduction d'outils d'IA dans le cadre professionnel s'accompagne d'une hausse de 10 points de l'engagement des salariés, atteignant 78 % chez ceux exposés à ces technologies. 65 % d'entre eux rapportent une exécution plus rapide de leurs tâches, 58 % constatent une amélioration de la qualité de leur travail, et 37 % affirment pouvoir accomplir des missions qui leur étaient auparavant inaccessibles. Ce recours massif à des solutions externes traduit un décalage profond entre les stratégies des directions et les besoins concrets du terrain. Les salariés, soumis à une pression croissante de productivité, choisissent les outils les plus accessibles sans attendre le déploiement de solutions validées en interne, sous-estimant souvent les risques associés comme la fuite de données sensibles ou l'absence de traçabilité. Liza Le Derff, Senior Consultant chez Qualtrics, interprète ce comportement non comme une rébellion mais comme un signal d'alarme : les outils internes sont jugés trop limités ou insuffisamment communiqués. Par ailleurs, 42 % des salariés réclament une meilleure écoute de leur hiérarchie, alors que seulement 25 % des entreprises ont renforcé leurs dispositifs d'écoute au cours de l'année 2025. Ce déficit empêche les directions RH et IT de capter les besoins réels, ce qui pousse les collaborateurs à contourner les politiques officielles. Malgré tout, 21 % des salariés expriment encore des craintes vis-à-vis de l'IA, illustrant que l'adhésion reste partielle et conditionnée à l'accompagnement proposé. Ce rapport s'inscrit dans un contexte où l'IA générative s'est imposée en quelques années comme outil du quotidien dans de nombreuses professions, bien avant que les organisations n'aient pu structurer une réponse cohérente. Les grandes entreprises technologiques comme Microsoft, Google ou Salesforce ont accéléré l'intégration de fonctionnalités d'IA dans leurs suites collaboratives, rendant l'adoption quasi inévitable. Les directions RH se retrouvent désormais face à un défi double : encadrer un usage déjà répandu pour limiter les risques de sécurité et de conformité, tout en proposant des outils internes suffisamment performants pour que les salariés n'aient plus à chercher ailleurs. L'enjeu pour les prochains mois sera de transformer cette écoute en actions concrètes, en impliquant les collaborateurs dans la sélection et le déploiement des solutions, plutôt que de les exposer à des décisions descendantes déconnectées de leurs réalités opérationnelles.

UELe Shadow AI documenté dans ce rapport représente un risque de conformité RGPD concret pour les entreprises européennes, dont les salariés utilisent des outils non validés susceptibles de transmettre des données sensibles vers des serveurs hors UE.

SociétéActu
1 source
Moins de travail, salaires maintenus : la vision d'OpenAI pour un monde transformé par la superintelligence
4The Decoder 

Moins de travail, salaires maintenus : la vision d'OpenAI pour un monde transformé par la superintelligence

OpenAI a publié un document de politique publique dans lequel l'entreprise détaille sa vision d'un monde transformé par la superintelligence et formule des recommandations concrètes à l'intention des gouvernements. Parmi les propositions figurent la création d'un fonds de richesse publique, l'instauration d'une semaine de travail de quatre jours et une hausse des taxes sur les plus-values pour les contribuables les plus aisés. Le document s'inscrit dans une réflexion sur la manière dont les États devraient anticiper et encadrer l'émergence de systèmes d'IA dépassant les capacités humaines dans la quasi-totalité des domaines. Ces recommandations signalent un changement de posture notable pour une entreprise privée : OpenAI ne se contente plus de développer des technologies, elle propose désormais une feuille de route économique et sociale à grande échelle. L'idée d'une semaine de quatre jours associée à un maintien des salaires touche directement aux conditions de travail de centaines de millions de personnes, tandis qu'un fonds de richesse publique redistributerait une partie des gains de productivité générés par l'automatisation vers l'ensemble de la population. Ce document intervient dans un contexte de débat croissant sur la concentration des bénéfices de l'IA entre quelques grandes entreprises technologiques. OpenAI, qui a récemment levé des milliards de dollars et restructuré son modèle juridique vers une entité plus commerciale, cherche visiblement à façonner le cadre réglementaire avant que les gouvernements ne le définissent sans elle. La question de savoir si ces propositions relèvent d'une conviction sincère ou d'un exercice de relations publiques restera au coeur des discussions à venir.

UELes propositions d'OpenAI (semaine de quatre jours, fonds de richesse publique, hausse des taxes sur les plus-values) alimentent directement les débats européens sur la redistribution des gains de productivité liés à l'automatisation et pourraient peser sur les négociations autour de la gouvernance de l'IA au niveau de l'UE.

SociétéReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour