Aller au contenu principal
Mieux informer les employés sur leur rémunération
SociétéOpenAI Blog7sem

Mieux informer les employés sur leur rémunération

Résumé IASource uniqueImpact UE
Source originale ↗·

Chaque jour, les Américains envoient près de 3 millions de messages à ChatGPT pour s'informer sur les salaires et les rémunérations. Ce phénomène, mis en lumière par une nouvelle étude, révèle comment l'intelligence artificielle s'impose progressivement comme un outil de référence pour combler le manque historique de transparence salariale sur le marché du travail.

Cette tendance est significative dans un contexte où l'accès à l'information sur les rémunérations reste inégal. Les salariés, souvent dans l'ignorance des grilles de paie de leurs employeurs ou des standards du marché, se tournent vers les assistants IA pour obtenir des repères concrets — un phénomène qui pourrait rééquilibrer le rapport de force lors des négociations salariales entre employeurs et candidats.

La recherche souligne que ChatGPT, développé par OpenAI, est devenu un intermédiaire de facto pour des millions de travailleurs cherchant à évaluer leur positionnement salarial. Le volume de près de 3 millions de requêtes quotidiennes sur ce seul sujet témoigne d'un besoin structurel non satisfait par les canaux traditionnels — plateformes d'emploi, syndicats ou ressources humaines.

À mesure que ces usages se généralisent, la question de la fiabilité des données fournies par les modèles de langage devient centrale. Les informations salariales sont souvent contextuelles, sectorielles et géographiques — des nuances que les LLMs ne maîtrisent pas toujours avec précision, soulevant des enjeux de qualité de l'information pour les travailleurs qui s'appuient sur ces outils pour des décisions financières importantes.

Impact France/UE

La tendance à utiliser l'IA pour s'informer sur les salaires pourrait accélérer la mise en œuvre de la directive européenne sur la transparence salariale, qui oblige les entreprises à divulguer les écarts de rémunération d'ici 2026.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

JPMorgan commence à suivre l'utilisation de l'IA par ses employés
1AI News 

JPMorgan commence à suivre l'utilisation de l'IA par ses employés

JPMorgan Chase a commencé à surveiller systématiquement l'utilisation des outils d'intelligence artificielle par ses quelque 65 000 ingénieurs et techniciens. Selon des informations publiées par Business Insider, la banque américaine demande désormais à ces employés d'intégrer des outils comme ChatGPT et Claude Code dans leur travail quotidien — rédaction de code, relecture de documents, traitement de tâches répétitives. Des systèmes internes classifient chaque salarié selon son niveau d'utilisation, entre « utilisateur léger » et « utilisateur intensif ». Ce suivi n'est pas anodin : il est susceptible d'influer directement sur les évaluations de performance annuelles, transformant ainsi la maîtrise de l'IA en critère d'évaluation professionnel officiel. Ce changement marque une rupture avec la logique des deux dernières années, durant lesquelles la plupart des grandes entreprises ont déployé des outils d'IA sans parvenir à une adoption homogène — certaines équipes expérimentaient activement, d'autres ignoraient les nouveaux outils. En intégrant l'usage de l'IA aux critères de performance, JPMorgan cherche à imposer un socle commun d'adoption, similaire à ce que fut l'apprentissage des tableurs ou des outils de développement en leur temps. Cela soulève toutefois une question concrète : si l'IA réduit le temps nécessaire à certaines tâches, les salariés seront-ils attendus sur un volume de production plus élevé ? Et comment distinguer un « bon » usage — pertinent, vérifié, productif — d'une simple utilisation fréquente pour satisfaire les métriques internes ? JPMorgan n'est pas novice en matière d'IA : la banque l'utilise depuis plusieurs années dans la détection de fraude et l'analyse de risque. Mais étendre cette logique à des dizaines de milliers d'employés dans des fonctions générales soulève des enjeux de gouvernance spécifiques. Les outils grand public comme ChatGPT peuvent produire des résultats inexacts ou incomplets, ce qui implique que les employés doivent vérifier chaque output avant toute utilisation dans une décision ou un document client — une contrainte forte dans un environnement bancaire réglementé. La banque devra probablement déployer des garde-fous similaires à ceux déjà en place pour ses systèmes de trading et de gestion des risques. D'autres institutions financières observent attentivement cette expérience : si lier l'usage de l'IA aux évaluations se traduit par des gains de productivité mesurables, le modèle pourrait se diffuser rapidement dans le secteur, redéfinissant au passage les compétences attendues à l'embauche — la rédaction de prompts et la vérification des sorties IA pourraient bientôt figurer dans les fiches de poste standard.

UELes entreprises et banques européennes pourraient s'inspirer de ce modèle pour intégrer l'usage de l'IA comme critère d'évaluation RH, redéfinissant les compétences attendues sur le marché du travail.

SociétéOpinion
1 source
"Détecter les situations d'urgence sur les réseaux sociaux"
2Sciences et Avenir Tech 

"Détecter les situations d'urgence sur les réseaux sociaux"

Alda Mari, linguiste et chercheuse au CNRS, a reçu la médaille de l'innovation 2025 du CNRS pour avoir conçu Intact, un logiciel d'intelligence artificielle capable de détecter automatiquement les situations d'urgence dans les flux de réseaux sociaux lors de crises environnementales. Ce système analyse en temps réel des milliers de publications pour identifier les signaux critiques, appels à l'aide, signalements d'inondations, coupures de routes, noyés dans le bruit informationnel habituel. L'enjeu est majeur pour les services de secours et les autorités de gestion de crise, qui se trouvent souvent submergés d'informations contradictoires lors d'événements comme des tempêtes, des feux de forêt ou des inondations. Intact leur offre un filtre intelligent pour prioriser les interventions et orienter les ressources là où elles sont réellement nécessaires, potentiellement en sauvant des vies grâce à une réponse plus rapide. La médaille de l'innovation du CNRS, créée en 2011, récompense des recherches ayant débouché sur des applications concrètes à fort impact sociétal. Le travail d'Alda Mari s'inscrit dans un champ plus large croisant linguistique computationnelle et gestion des catastrophes naturelles, un domaine en plein essor à mesure que les crises climatiques se multiplient et que les réseaux sociaux deviennent la première source d'information terrain lors de ces événements.

UEUn outil développé par le CNRS pour détecter les urgences en temps réel sur les réseaux sociaux lors de crises environnementales, directement applicable aux services de secours français et européens.

💬 Ça fait des années qu'on parle de l'IA comme outil de veille de crise, et là, enfin quelqu'un a fait quelque chose qui tient la route. Ce qui est malin, c'est que c'est une linguiste qui l'a construit, pas une boîte tech avec un tableau de bord en plus, et ça se voit dans l'approche. Reste à voir ce que ça donne quand une catastrophe génère des millions de posts en quelques heures.

SociétéOutil
1 source
Ce que les données révèlent vraiment sur l'IA et votre emploi
3MIT Technology Review 

Ce que les données révèlent vraiment sur l'IA et votre emploi

Au sein de la Silicon Valley, l'idée d'une apocalypse de l'emploi causée par l'IA est désormais traitée comme une certitude. Dario Amodei, PDG d'Anthropic, a décrit l'IA comme "un substitut général de la main-d'oeuvre humaine" capable de réaliser tous les emplois en moins de cinq ans. Une chercheuse en impacts sociétaux chez Anthropic a quant à elle évoqué une possible récession à court terme et "l'effondrement de l'échelle des débuts de carrière". Ces déclarations alimentent une anxiété croissante chez les travailleurs, au point de renforcer les mouvements réclamant un moratoire sur la construction de centres de données. Alex Imas, économiste à l'Université de Chicago, a accepté de faire le point sur ce que l'on sait réellement, et surtout sur ce que l'on ignore. Son constat est sévère : les outils actuels pour prédire l'impact de l'IA sur l'emploi sont "lamentables". La mesure la plus utilisée, le taux d'"exposition" d'un métier à l'IA, consiste à comptabiliser combien de tâches qui le composent pourraient être automatisées. C'est la méthode qu'OpenAI a appliquée en décembre dernier à un catalogue gouvernemental américain de milliers de tâches professionnelles, datant de 1998, constatant par exemple qu'un agent immobilier est exposé à 28 %. Anthropic a utilisé ce même référentiel en février pour analyser des millions de conversations avec Claude. Mais pour Imas, "l'exposition seule est un outil totalement inutile pour prédire les suppressions de postes" : savoir qu'une tâche peut être automatisée ne dit rien sur ce que fera concrètement l'employeur de ce gain de productivité. L'enjeu central est en réalité une question d'économie industrielle que personne ne sait encore trancher : si un développeur peut produire en un jour ce qui lui prenait trois jours grâce à l'IA, l'entreprise va-t-elle embaucher moins de développeurs ou au contraire en recruter davantage pour aller plus vite ? La réponse dépend du secteur, de la structure des marchés et de la concurrence. Dans un marché compétitif, les gains de productivité se répercutent souvent en baisse de prix, ce qui stimule la demande et donc l'emploi. Mais ce mécanisme ne s'applique pas uniformément. Imas plaide pour que les économistes collectent d'urgence des données granulaires sur la façon dont les entreprises réallouent réellement leur main-d'oeuvre après l'adoption de l'IA, car sans ces données, toute politique publique sur l'emploi reste aveugle. Le débat dépasse donc largement les prédictions catastrophistes : il appelle à une observation rigoureuse de terrain, que personne n'a encore vraiment commencée.

UELe manque de données empiriques rigoureuses sur la réallocation réelle de la main-d'oeuvre après adoption de l'IA fragilise également les politiques publiques européennes sur l'emploi et les débats autour de l'AI Act.

SociétéOpinion
1 source
Meta réduit le recours aux modérateurs tiers et mise davantage sur l'IA
4The Information AI 

Meta réduit le recours aux modérateurs tiers et mise davantage sur l'IA

Meta réduit le recours aux modérateurs tiers sur Facebook, Instagram et Threads au profit de systèmes d'intelligence artificielle. L'entreprise déploiera davantage d'IA pour examiner les contenus sur ses plateformes. Cette décision marque un tournant majeur dans la stratégie de modération du groupe.

UELa réduction des modérateurs humains chez Meta soulève des questions de conformité avec le Digital Services Act (DSA) qui impose des obligations strictes de modération aux très grandes plateformes en Europe.

SociétéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour