Aller au contenu principal
La Silicon Valley a oublié ce que veulent les gens ordinaires
SociétéThe Verge AI1h

La Silicon Valley a oublié ce que veulent les gens ordinaires

1 source couvre ce sujet·Source originale ↗·

La Silicon Valley semble avoir perdu le sens des réalités, selon une chronique publiée par The Verge. L'auteure illustre ce décrochage par une anecdote révélatrice : un de ses proches du milieu technologique lui a récemment expliqué avec enthousiasme sa "grande découverte" grâce aux LLM. Il avait réalisé que la connaissance est structurée dans le langage, qu'on peut entrer un mot dans ChatGPT et que l'outil comprend l'intention, ou encore qu'inventer un mot permet de tester sa compréhension. Sa conclusion : les LLM représentent une avancée comparable à l'invention de l'écriture.

Le problème pointé ici n'est pas l'enthousiasme en lui-même, mais le fossé croissant entre ce que les ingénieurs et investisseurs de la tech considèrent comme révolutionnaire et ce que le reste de la population perçoit comme évident ou marginal. Quand des professionnels formés redécouvrent des principes fondamentaux de linguistique et les présentent comme des épiphanies, cela trahit une bulle intellectuelle déconnectée des besoins concrets des utilisateurs ordinaires.

Ce phénomène s'inscrit dans une critique plus large de la culture de la Silicon Valley, notamment celle véhiculée par des plateformes comme le podcast All-In, où l'entre-soi des milliardaires et entrepreneurs tech façonne une vision du monde de plus en plus éloignée du grand public. Alors que l'IA générative s'impose dans les discours dominants comme la prochaine révolution universelle, la question reste entière : à qui profitent réellement ces outils, et qui décide de ce qui compte comme progrès ?

À lire aussi

Des ingénieurs chinois forment leurs sosies IA, et certains résistent
1MIT Technology Review 

Des ingénieurs chinois forment leurs sosies IA, et certains résistent

En Chine, des ingénieurs et développeurs sont de plus en plus poussés par leurs employeurs à documenter leurs méthodes de travail pour former des agents IA capables de les remplacer. Le phénomène a pris une dimension publique début avril 2026, lorsqu'un projet GitHub baptisé Colleague Skill est devenu viral sur les réseaux sociaux chinois. L'outil, créé par Tianyi Zhou, ingénieur au Shanghai Artificial Intelligence Laboratory, permet à un utilisateur de saisir le nom d'un collègue, d'importer automatiquement ses historiques de conversation et fichiers depuis les plateformes professionnelles Lark et DingTalk, puis de générer des manuels détaillés décrivant ses tâches, ses habitudes de communication et même ses petites particularités. Une utilisatrice shanghaïenne de 27 ans, Amber Li, a testé l'outil sur un ancien collègue : en quelques minutes, Colleague Skill avait produit un profil complet reproduisant jusqu'aux tics de ponctuation de la personne. Zhou a précisé au journal Southern Metropolis Daily que le projet était avant tout une provocation satirique, née des licenciements liés à l'IA et de la tendance croissante des entreprises à demander à leurs salariés de s'automatiser eux-mêmes. Il n'a pas souhaité commenter davantage. Ce qui était une blague a touché quelque chose de réel. La viralité de Colleague Skill a déclenché un débat de fond sur la dignité et l'individualité des travailleurs à l'ère de l'IA. Sur les réseaux sociaux chinois, les ingénieurs alternent entre humour noir et malaise sincère : un commentaire sur Rednote résume l'ambiance, suggérant d'automatiser ses collègues avant eux-mêmes pour survivre un peu plus longtemps. Un développeur ayant requis l'anonymat a confié à MIT Technology Review avoir formé un agent sur son propre workflow et avoir trouvé l'expérience profondément réductrice, comme si des années de savoir-faire avaient été compressées en modules interchangeables. Amber Li, malgré la précision troublante du résultat, qualifie l'expérience d'«étrange et inconfortable». Ce mouvement s'inscrit dans un contexte plus large : depuis qu'OpenClaw, un outil d'agent IA, est devenu un phénomène national en Chine, de nombreuses entreprises tech encouragent leurs équipes à expérimenter les agents pour des tâches comme la lecture de mails, la navigation web ou le débogage de code. Mais Hancheng Cao, professeur assistant à l'université Emory spécialisé dans l'IA et le travail, souligne que l'enjeu dépasse la mode managériale : en demandant à leurs employés de produire ces blueprints, les entreprises cartographient discrètement leur capital humain, identifient ce qui peut être standardisé et ce qui reste irréductiblement humain. Pour les salariés, la frontière entre optimisation et précarisation organisée devient de plus en plus floue.

SociétéActu
1 source
IA et santé mentale : les thérapies virtuelles sont-elles fiables ou dangereuses ?
2Le Big Data 

IA et santé mentale : les thérapies virtuelles sont-elles fiables ou dangereuses ?

En 2026, les thérapies virtuelles basées sur l'intelligence artificielle ont franchi un seuil symbolique : des millions d'utilisateurs à travers le monde se confient désormais à des agents conversationnels pour gérer leur santé mentale. Ces outils combinent traitement du langage naturel, analyse vocale et adaptation comportementale en temps réel : ils mesurent l'inflexion de la voix, la vitesse de frappe, les schémas de pensée répétitifs pour personnaliser chaque interaction. Des plateformes comme Woebot, Wysa ou des équivalents européens proposent une disponibilité 24h/24, sans délai de rendez-vous, directement depuis un smartphone. Une étude publiée sur PubMed Central confirme que ces systèmes peuvent réduire significativement les symptômes d'anxiété et de dépression légère à modérée chez certains profils de patients. L'IA segmente les problèmes en étapes gérables, identifie les distorsions cognitives et propose des exercices de restructuration immédiate, une approche inspirée des thérapies cognitivo-comportementales classiques. L'enjeu est massif : la pénurie mondiale de psychiatres et psychologues laisse des centaines de millions de personnes sans accès à un soin de qualité. Dans ce contexte, l'IA représente une réponse partielle mais concrète à une crise structurelle. Pour les professionnels, le bénéfice est également organisationnel : la transcription automatique des séances, le résumé d'historiques complexes et la gestion administrative permettent de restituer du temps clinique à l'écoute humaine. Sur le plan individuel, la simple disponibilité d'un outil en un clic entre deux séances réduit l'isolement et le niveau d'angoisse de fond. Mais les limites sont réelles : l'IA décode les symptômes sans comprendre leur origine, elle ne perçoit pas le contexte culturel ni les non-dits, et elle reste incapable de gérer des situations de crise aiguë ou de risque suicidaire avec la même fiabilité qu'un soignant formé. Ce débat n'émerge pas dans le vide. La psychiatrie mondiale traversait déjà une crise de capacité avant la pandémie de Covid-19, aggravée depuis par une demande en forte hausse. L'arrivée de grands modèles de langage performants à partir de 2023 a précipité le déploiement commercial d'outils thérapeutiques, souvent en avance sur les cadres réglementaires. En Europe, la directive sur les dispositifs médicaux numériques tente de rattraper ce retard, mais la certification de ces plateformes reste hétérogène. Les acteurs en présence sont variés : startups spécialisées, grandes plateformes tech, hôpitaux publics qui expérimentent des assistants IA en complément de soins. La question qui structure le débat médical n'est plus "l'IA peut-elle aider ?" mais "dans quelles conditions, avec quelle supervision, et pour quels profils de patients ?" Les prochaines années verront probablement émerger des modèles hybrides, où l'IA assure le suivi de continuité et le clinicien humain intervient aux moments décisifs.

UELa directive européenne sur les dispositifs médicaux numériques tente de réguler ces plateformes thérapeutiques IA, mais la certification reste hétérogène selon les États membres, exposant les patients européens à des niveaux de protection inégaux.

SociétéOpinion
1 source
L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)
3Le Big Data 

L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)

Le 17 avril 2026, Elon Musk a publié sur le réseau X un message qui a immédiatement enflammé les débats économiques : selon lui, la meilleure réponse au chômage de masse causé par l'intelligence artificielle serait un « Universal High Income » (UHI), soit un Revenu Universel Élevé versé sous forme de chèques par le gouvernement fédéral américain. Ce n'est plus le simple filet de sécurité qu'il évoquait dès 2018 sous le nom d'UBI, mais une promesse d'aisance généralisée. Son argument central : l'IA et la robotique vont produire des biens et services en quantité tellement excédentaire par rapport à la masse monétaire injectée que l'inflation serait mécaniquement neutralisée, rendant un revenu confortable pour tous non seulement possible, mais nécessaire. Cette déclaration intervient alors que les robots humanoïdes et les modèles d'IA générative s'apprêtent à automatiser une part inédite du travail physique et intellectuel en ce début d'année 2026. L'impact potentiel d'une telle proposition est considérable, mais sa faisabilité économique est sévèrement contestée. Si Musk a raison, des dizaines de millions de travailleurs déplacés par l'automatisation bénéficieraient d'un revenu suffisant pour maintenir un niveau de vie correct, évitant une crise sociale d'ampleur historique. Mais la majorité des économistes jugent son calcul mathématiquement intenable : injecter massivement de l'argent public sans créer d'inflation suppose que la productivité des machines suive une courbe de déflation technologique sans précédent et soutenue, ce qui reste une hypothèse non démontrée. Le financement d'un tel programme représenterait des milliers de milliards de dollars annuels pour les seuls États-Unis, sans source de revenus fiscaux clairement identifiée dans un monde où les grandes entreprises tech optimisent déjà leur fiscalité. Cette sortie de Musk s'inscrit dans une trajectoire qui dure depuis plusieurs années, mais marque une rupture de ton. En 2018, il parlait de filet de sécurité ; pendant la pandémie, il saluait les chèques de 1 400 dollars comme un « UBI lite ». Aujourd'hui, il parle d'abondance et de post-rareté, une vision qui n'est plus défensive mais utopique. Derrière l'annonce se profile aussi une question philosophique que peu d'économistes osent quantifier : si le travail disparaît, comment des sociétés entières trouveront-elles sens, identité et cohésion sociale ? Le risque d'une dépendance généralisée à l'État, que certains appellent déjà le « techno-féodalisme », est réel. Musk lui-même, à la tête de Tesla, SpaceX et xAI, est l'un des principaux acteurs de cette automatisation qu'il propose maintenant de compenser financièrement, ce qui ne manque pas d'alimenter les questions sur les conflits d'intérêts et la sincérité du projet.

SociétéOpinion
1 source
Ne supprimez pas vos réunions ! Elles sont votre meilleure protection face à l’IA
4Le Big Data 

Ne supprimez pas vos réunions ! Elles sont votre meilleure protection face à l’IA

Alors que l'intelligence artificielle compresse le temps de production des tâches intellectuelles, réduisant des projets de plusieurs mois à quelques heures, une constante résiste : les réunions. Dan Sirk, directeur marketing travaillant simultanément pour deux entreprises grâce à ChatGPT, Gemini et Claude, produit plus vite, seul, à moindre coût. Pourtant, il identifie les réunions comme la limite concrète à son expansion : déjà une dizaine par semaine, son agenda serait saturé au-delà de trois entreprises. Cette observation illustre un phénomène documenté par le New York Times : l'IA ne réduit pas la charge globale de travail, elle la déplace vers la coordination humaine. La raison est structurelle. Plus l'IA génère d'options, de stratégies et de prototypes, plus les équipes doivent arbitrer, prioriser et s'aligner. Ces décisions ne peuvent pas être déléguées à des systèmes automatisés : présenter une idée, convaincre des collègues, rassurer un client, négocier un compromis, ces dimensions restent irréductiblement humaines. Les réunions deviennent ainsi le lieu où la production brute se transforme en décisions concrètes. Chez Salesforce, des employés cherchent à renforcer leurs liens clients au-delà des échanges automatisés, par l'écoute active et l'accompagnement émotionnel. Chez PolicyFly, l'IA a divisé par deux le temps d'intégration client, mais les réunions demeurent : les clients veulent être rassurés, poser des questions, valider leurs choix en direct. Ce phénomène prolonge une tendance identifiée dès 2017 par le National Bureau of Economic Research : l'automatisation augmente la valeur des compétences sociales. Plus les machines absorbent les tâches techniques, plus les postes exigeant de fortes interactions humaines se multiplient. L'IA de 2024-2026 amplifie cette dynamique à grande échelle. Dans les processus de recrutement des entreprises technologiques, les compétences techniques cèdent du terrain face à la capacité à proposer des idées pertinentes et à convaincre. Dans le conseil, les présentations sont en partie générées par l'IA, mais les consultants performants sont ceux qui comprennent les modes de décision de leurs clients, une connaissance qui s'acquiert en réunion. Loin d'être des espaces d'inefficacité à éliminer, les réunions deviennent le terrain où se joue la valeur ajoutée humaine dans un monde où la production est largement automatisée.

SociétéOpinion
1 source