Aller au contenu principal
JPMorgan commence à suivre l'utilisation de l'IA par ses employés
SociétéAI News1h

JPMorgan commence à suivre l'utilisation de l'IA par ses employés

1 source couvre ce sujet·Source originale ↗·

JPMorgan Chase a commencé à surveiller systématiquement l'utilisation des outils d'intelligence artificielle par ses quelque 65 000 ingénieurs et techniciens. Selon des informations publiées par Business Insider, la banque américaine demande désormais à ces employés d'intégrer des outils comme ChatGPT et Claude Code dans leur travail quotidien — rédaction de code, relecture de documents, traitement de tâches répétitives. Des systèmes internes classifient chaque salarié selon son niveau d'utilisation, entre « utilisateur léger » et « utilisateur intensif ». Ce suivi n'est pas anodin : il est susceptible d'influer directement sur les évaluations de performance annuelles, transformant ainsi la maîtrise de l'IA en critère d'évaluation professionnel officiel.

Ce changement marque une rupture avec la logique des deux dernières années, durant lesquelles la plupart des grandes entreprises ont déployé des outils d'IA sans parvenir à une adoption homogène — certaines équipes expérimentaient activement, d'autres ignoraient les nouveaux outils. En intégrant l'usage de l'IA aux critères de performance, JPMorgan cherche à imposer un socle commun d'adoption, similaire à ce que fut l'apprentissage des tableurs ou des outils de développement en leur temps. Cela soulève toutefois une question concrète : si l'IA réduit le temps nécessaire à certaines tâches, les salariés seront-ils attendus sur un volume de production plus élevé ? Et comment distinguer un « bon » usage — pertinent, vérifié, productif — d'une simple utilisation fréquente pour satisfaire les métriques internes ?

JPMorgan n'est pas novice en matière d'IA : la banque l'utilise depuis plusieurs années dans la détection de fraude et l'analyse de risque. Mais étendre cette logique à des dizaines de milliers d'employés dans des fonctions générales soulève des enjeux de gouvernance spécifiques. Les outils grand public comme ChatGPT peuvent produire des résultats inexacts ou incomplets, ce qui implique que les employés doivent vérifier chaque output avant toute utilisation dans une décision ou un document client — une contrainte forte dans un environnement bancaire réglementé. La banque devra probablement déployer des garde-fous similaires à ceux déjà en place pour ses systèmes de trading et de gestion des risques. D'autres institutions financières observent attentivement cette expérience : si lier l'usage de l'IA aux évaluations se traduit par des gains de productivité mesurables, le modèle pourrait se diffuser rapidement dans le secteur, redéfinissant au passage les compétences attendues à l'embauche — la rédaction de prompts et la vérification des sorties IA pourraient bientôt figurer dans les fiches de poste standard.

Impact France/UE

Les entreprises et banques européennes pourraient s'inspirer de ce modèle pour intégrer l'usage de l'IA comme critère d'évaluation RH, redéfinissant les compétences attendues sur le marché du travail.

À lire aussi

Actualité : Ce jeu vidéo écoulé à plusieurs millions d'exemplaires licencie son traducteur et le remplace par l'IA
1Les Numériques IA 

Actualité : Ce jeu vidéo écoulé à plusieurs millions d'exemplaires licencie son traducteur et le remplace par l'IA

Max Hejtmánek, traducteur tchèque-anglais chez Warhorse Studios depuis 2022, a été licencié et remplacé par une solution d'intelligence artificielle pour la localisation de Kingdom Come: Deliverance 2. L'information a été confirmée par les modérateurs du subreddit r/kingdomcome, qui ont vérifié son identité, et par son profil LinkedIn, qui ne mentionne plus le studio. Le jeu, développé par ce studio tchèque indépendant, s'est écoulé à plusieurs millions d'exemplaires depuis sa sortie début 2025, en faisant l'un des succès commerciaux marquants de l'année dans le secteur du RPG. Ce licenciement illustre une tendance qui s'accélère dans l'industrie du jeu vidéo : le remplacement de traducteurs humains par des outils de traduction automatique, souvent combinés à une post-édition légère ou supprimée entièrement. Pour les professionnels de la localisation, c'est un signal d'alarme concret — non plus une menace théorique, mais un précédent documenté dans un studio à succès. Les joueurs, eux, s'inquiètent de la qualité des futures traductions, notamment pour un jeu dont l'authenticité historique et la richesse narrative constituent l'argument central. Warhorse Studios s'est fait connaître grâce à Kingdom Come: Deliverance premier du nom, salué pour son souci du détail dans la reconstitution de la Bohême médiévale. La décision de recourir à l'IA pour la traduction intervient dans un contexte de pression financière croissante sur les studios mid-budget, coincés entre les coûts de développement en hausse et la concurrence des grandes productions. Aucun commentaire officiel du studio n'a été publié à ce stade, mais la communauté du jeu suit l'affaire de près, posant la question de ce que les éditeurs sacrifient lorsqu'ils automatisent la couche linguistique de leurs œuvres.

UEWarhorse Studios étant un studio tchèque (UE), ce licenciement constitue un précédent documenté de remplacement d'un travailleur européen par l'IA dans l'industrie créative, avec des implications directes pour les professionnels de la localisation en Europe.

SociétéActu
1 source
Selon Anthropic, les compétences en IA s'accumulent avec le temps, ce qui pourrait creuser les inégalités
2The Decoder 

Selon Anthropic, les compétences en IA s'accumulent avec le temps, ce qui pourrait creuser les inégalités

Anthropic a publié les résultats de son deuxième Economic Index, une étude qui suit l'évolution de l'usage de son modèle Claude à travers l'économie. Le constat central est clair : plus les utilisateurs emploient Claude sur la durée, plus leurs résultats s'améliorent. Autrement dit, l'IA est une compétence qui s'acquiert — et cette compétence produit des gains croissants pour ceux qui la maîtrisent. Ce phénomène d'apprentissage cumulatif soulève une question de fond sur les inégalités. Si les gains liés à l'IA augmentent avec l'expérience, ceux qui ont accès à ces outils en premier — et le temps de les apprivoiser — prendront une longueur d'avance durable sur les autres. Les travailleurs qualifiés, les entreprises technologiques et les pays développés risquent ainsi de creuser l'écart avec ceux qui n'ont pas encore adopté ces outils, faute de moyens, de formation ou d'infrastructure numérique. Anthropic n'en est pas à son premier signal sur les effets économiques de l'IA générative. Ce deuxième Index s'inscrit dans une démarche de transparence et de documentation que peu d'acteurs du secteur pratiquent à cette échelle. Le débat sur l'impact de l'IA sur l'emploi et les inégalités est désormais alimenté par des données réelles d'usage, et non plus de simples projections théoriques. La question qui se pose maintenant aux décideurs politiques est de savoir comment démocratiser l'accès à ces compétences avant que l'écart ne devienne structurel.

UELes décideurs européens, déjà engagés sur l'AI Act, devront intégrer la fracture des compétences IA dans leurs politiques de formation professionnelle et d'inclusion numérique pour éviter un creusement structurel des inégalités au sein de l'UE.

SociétéActu
1 source
Avez-vous utilisé une IA ce vendredi après-midi ? On vous explique pourquoi c’était une erreur
3Presse-citron 

Avez-vous utilisé une IA ce vendredi après-midi ? On vous explique pourquoi c’était une erreur

Un analyste a récemment mis en garde contre une habitude qui se répand discrètement dans les entreprises : recourir à l'intelligence artificielle le vendredi après-midi. Selon lui, si les outils d'IA peuvent accélérer la rédaction, la recherche ou l'analyse, leurs résultats restent imparfaits et doivent systématiquement être relus et vérifiés par un humain avant d'être utilisés. Le problème central est comportemental, pas technique. En fin de semaine, la vigilance des travailleurs diminue — la fatigue cognitive s'accumule, la concentration baisse, et la tentation de valider rapidement une réponse générée par un modèle sans la contre-vérifier est plus forte. C'est précisément dans ces moments que les erreurs de l'IA passent inaperçues et se retrouvent dans des livrables, des e-mails ou des décisions professionnelles. Cette mise en garde s'inscrit dans un débat plus large sur l'intégration responsable des outils d'IA en entreprise. Alors que des millions de professionnels utilisent désormais des assistants comme ChatGPT ou Copilot au quotidien, la question de la supervision humaine reste centrale. Les organisations commencent à réfléchir à des protocoles d'usage — pas pour interdire l'IA, mais pour encadrer les conditions dans lesquelles ses outputs peuvent être considérés comme fiables.

SociétéOpinion
1 source
Actualité : Apnée du sommeil : après 25 ans de ronflements et 5 spécialistes dépassés, Claude lui sauve probablement la vie
4Les Numériques IA 

Actualité : Apnée du sommeil : après 25 ans de ronflements et 5 spécialistes dépassés, Claude lui sauve probablement la vie

Le 26 mars 2026, un post publié sur le subreddit r/ClaudeAI a rapidement franchi les 4 000 votes et généré près de 960 commentaires. Son auteur, un internaute indien, y décrit comment il a soumis l'intégralité du dossier médical de son oncle à Claude, après 25 ans de ronflements chroniques, une insuffisance rénale progressive et cinq spécialistes qui n'avaient pas su relier les symptômes entre eux. En quelques minutes, le modèle d'Anthropic a identifié une apnée obstructive du sommeil sévère non diagnostiquée comme fil conducteur probable de l'ensemble des complications — une conclusion que personne dans la chaîne médicale n'avait formalisée. L'impact est immédiat et concret : le patient a depuis pu consulter un pneumologue armé d'une hypothèse précise, ce qui a accéléré la prescription d'une polysomnographie. Pour des millions de patients atteints d'apnée non diagnostiquée — estimés entre 80 et 90 % des cas selon l'American Academy of Sleep Medicine — ce type d'usage illustre une nouvelle fonction des LLMs : non pas remplacer le médecin, mais synthétiser des dossiers fragmentés que le système de soins n'a pas le temps de recroiser. Ce récit s'inscrit dans une tendance documentée depuis 2024 : des patients ou leurs proches utilisent de plus en plus Claude, GPT-4 ou Gemini comme deuxième avis informel face à des diagnostics bloqués. Anthropic n'a pas commenté ce cas spécifique, mais la viralité du post relance le débat sur la responsabilité médicale des IA génératives, leur place dans le parcours de soins, et les garde-fous réglementaires encore largement absents dans ce domaine.

UEL'absence de cadre réglementaire européen pour les usages médicaux informels de l'IA soulève des questions de responsabilité juridique et de sécurité des patients directement pertinentes dans le contexte de l'AI Act.

SociétéOpinion
1 source