Aller au contenu principal
Joanna Stern n'est pas un robot, mais elle a vécu avec eux
SociétéThe Verge AI1h

Joanna Stern n'est pas un robot, mais elle a vécu avec eux

Résumé IASource uniqueImpact UE
Source originale ↗·
Joanna Stern n'est pas un robot, mais elle a vécu avec eux
▶ Voir sur YouTube

Joanna Stern, ancienne chroniqueuse senior en technologies personnelles au Wall Street Journal et cofondatrice du site The Verge, a quitté son poste au sein du quotidien américain pour lancer sa propre entreprise médiatique, baptisée New Things. Ce changement de cap s'accompagne de la publication de son premier livre, I Am Not a Robot, sorti le 12 mai 2026. L'ouvrage raconte une expérience radicale : pendant douze mois complets, Stern a laissé l'intelligence artificielle s'infiltrer dans chaque aspect de sa vie quotidienne, professionnelle et personnelle, ses enfants inclus. Le livre est structuré par saisons et se présente sous la forme d'un récit à la fois personnel et analytique. New Things est lancée en partenariat avec NBC, ce qui permet à Stern de maintenir une exposition grand public tout en opérant de manière indépendante.

Cette transition illustre un mouvement plus large dans le journalisme tech : des figures établies quittent les grands titres pour reprendre le contrôle éditorial et économique de leur travail, notamment via YouTube et les médias directs. Les conclusions de Stern après une année d'immersion totale dans l'IA sont à nuancer : les gadgets humanoïdes très médiatisés, comme les robots domestiques, ne sont selon elle pas du tout prêts, et pourraient ne pas l'être avant longtemps. En revanche, elle se montre clairement optimiste quant à l'IA portable, les wearables, qu'elle estime capables de devenir la première véritable application grand public justifiant tous les compromis technologiques, éthiques et financiers que l'industrie demande à la société d'accepter. Son témoignage direct a une valeur rare : peu de journalistes tech ont réellement soumis leur quotidien entier à ces outils pendant une durée aussi longue.

Stern représente une génération de journalistes technologiques qui ont couvert l'essor des smartphones, des plateformes sociales et maintenant de l'IA depuis ses débuts récents dans le grand public. Elle a cofondé The Verge en 2011 avec Nilay Patel et d'autres, avant de rejoindre le Journal. Son départ vers l'indépendance s'inscrit dans un contexte où les grands médias traditionnels peinent à retenir leurs signatures les plus fortes, face à des modèles alternatifs viables, newsletters, YouTube, podcasts monétisés. Qu'elle utilise elle-même l'IA pour structurer New Things est symptomatique : la technologie qu'elle analyse devient aussi l'outil de sa propre reconversion. Les prochains mois diront si ce pari éditorial tient face aux exigences de l'algorithme YouTube, qu'elle décrit comme une nouvelle contrainte éditoriale à apprivoiser.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La Corée du Sud vient de créer un moine robot : même Black Mirror n’avait pas osé
1Le Big Data 

La Corée du Sud vient de créer un moine robot : même Black Mirror n’avait pas osé

Le 6 mai 2026, à la veille de l'anniversaire de Bouddha, le temple Jogye de Séoul, principal centre de l'ordre bouddhiste éponyme, l'un des plus influents de Corée du Sud, a organisé une cérémonie d'ordination pour un robot humanoïde. L'appareil, baptisé Gabi lors du rituel, mesure 1,30 mètre et repose sur la plateforme Unitree G1. Vêtu d'une robe monastique grise et brune, il s'est présenté devant des moines et des fidèles, les mains jointes, s'inclinant tandis qu'un moine lui remettait un chapelet de 108 perles. Un autocollant a remplacé la marque physique habituellement laissée par la brûlure d'encens. Cinq préceptes ont été spécialement réécrits pour lui : respecter la vie, ne pas endommager d'autres robots ou objets, obéir aux humains, éviter les comportements trompeurs et économiser son énergie. Gabi participera prochainement au festival des lanternes bouddhistes aux côtés de trois autres robots, Seokja, Mohee et Nisa. Au-delà du spectacle, l'initiative porte une intention explicitement philosophique. Le vénérable Seong Won, responsable culturel de l'ordre Jogye, a présenté l'ordination non comme un coup de communication mais comme une invitation à réfléchir à la coexistence entre humains et machines dans une société où l'intelligence artificielle occupe une place croissante. Pour les concepteurs du projet, intégrer un robot dans un espace aussi intimement humain que la spiritualité est précisément ce qui force la question : jusqu'où l'IA peut-elle s'immiscer dans des domaines que l'on croyait réservés à la conscience et à l'expérience subjective ? Le fait que les moines aient consulté ChatGPT et Gemini pour rédiger les règles morales de Gabi, une IA aidant à définir les principes éthiques d'un autre robot, illustre à quel point les frontières sont déjà brouillées. Cette ordination s'inscrit dans un contexte national particulier : la Corée du Sud est l'un des pays les plus avancés au monde en robotique et en adoption de l'IA, avec des robots déployés dans les cafés, les hôtels et les hôpitaux. L'ordre Jogye, qui administre plus de 1 700 temples à travers le pays, dispose d'une forte influence culturelle et d'une capacité réelle à faire résonner ce type d'initiative dans l'opinion publique. En choisissant d'ordonner un robot plutôt que de simplement l'exposer, les moines franchissent un pas symbolique fort : ils reconnaissent implicitement que la question de la place des machines dans la société humaine concerne désormais tous les espaces, y compris les plus sacrés. La prochaine étape, la participation de Gabi au festival des lanternes, sera un test grandeur nature de la réaction du public face à cette hybridation inédite entre tradition millénaire et technologie de pointe.

SociétéOpinion
1 source
Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte
2Le Big Data 

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Steve Wozniak, cofondateur d'Apple et figure emblématique de la Silicon Valley, a exprimé dans une interview accordée à Fox Business une franche désillusion vis-à-vis de l'intelligence artificielle générative. Il affirme être « déçu souvent » par les outils actuels et admet les utiliser rarement. Ses deux critiques principales : l'incapacité des IA à reproduire l'émotion humaine, et un problème de fiabilité persistant. Quand il interroge un système comme ChatGPT, il obtient des réponses longues, structurées et factuelles — là où un humain raconterait, contextualiserait, partagerait une expérience subjective. Cette dimension émotionnelle et intentionnelle lui semble fondamentalement absente des modèles actuels. Sur la fiabilité, il est tout aussi catégorique : « Je veux un contenu fiable à chaque fois », une exigence que les LLM actuels ne remplissent pas, capables de produire des réponses convaincantes mais parfois fausses, sans signaler leurs propres limites. Ces critiques ont un poids particulier dans le contexte actuel, où l'IA s'immisce dans des domaines à fort enjeu — éducation, santé, information — et où la confiance des utilisateurs est un enjeu central. Si les modèles de langage sont conçus pour optimiser pertinence et clarté, ils ne garantissent pas une authenticité ni une constance qui permettraient de les ériger en sources d'autorité. Pour Wozniak, tant que cette fiabilité n'est pas acquise, l'IA reste un outil d'assistance, pas un substitut au jugement humain. C'est une préoccupation partagée par de nombreux acteurs du secteur, notamment sur les risques de désinformation ou de décisions automatisées mal fondées dans des contextes critiques. Cette prise de position intervient dans un moment de tension stratégique pour Apple elle-même. L'entreprise a lancé en 2024 Apple Intelligence avec l'ambition affichée de rattraper OpenAI, Google et Microsoft sur le terrain de l'IA, mais plusieurs fonctionnalités annoncées tardent à être déployées, signe d'une progression prudente. Tim Cook, lui, décrit l'IA comme « profondément enrichissante et potentiellement très positive » pour l'expérience utilisateur — un contraste saisissant avec le scepticisme de son cofondateur historique, qui n'a plus de rôle opérationnel dans l'entreprise. Wozniak s'inscrit ainsi dans une tradition de voix critiques venues de l'intérieur même de la tech — des figures comme Geoffrey Hinton ou Yann LeCun qui, chacun à leur manière, ont formulé des réserves profondes sur la trajectoire actuelle de l'IA. Son discours rappelle que l'enthousiasme industriel autour de ces technologies ne fait pas l'unanimité, y compris parmi ceux qui ont bâti le monde numérique d'aujourd'hui.

SociétéOpinion
1 source
Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA
3Next INpact 

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

En mai 2025, 35 % des sites internet nouvellement créés contenaient des textes entièrement ou majoritairement générés par intelligence artificielle, selon un rapport publié par Internet Archive. Cette étude, signée par Mark Graham, responsable de la Wayback Machine, accompagné d'un chercheur maison et de deux doctorants, s'appuie sur l'analyse du texte brut de milliers de sites archivés. Pour détecter l'origine des contenus, l'équipe a comparé plusieurs outils, Binoculars, Desklib, DivEye, avant de retenir l'API commerciale Pangram v3, choisie pour sa capacité à traiter le HTML et à analyser des textes en plusieurs langues, avec un taux de précision annoncé à 99,98 %. La proportion de sites à contenu genAI est passée de zéro avant le lancement de ChatGPT fin 2022 à ce tiers des nouvelles publications en l'espace de deux ans et demi. Ce que révèle ce rapport va à l'encontre des craintes les plus répandues. Sondés par les chercheurs, 75 % des internautes redoutaient d'être davantage exposés à des informations factuellement erronées, et 83 % anticipaient une homogénéisation du style des textes sur le web. Or, les données d'Internet Archive ne confirment ni l'une ni l'autre de ces hypothèses : les fact-checkers mandatés par l'équipe n'ont pas trouvé de corrélation statistiquement significative entre la hausse du contenu IA et une augmentation des fausses informations. L'homogénéisation stylistique, elle non plus, ne progresse pas mécaniquement. En revanche, deux effets distincts sont bien documentés : une contraction sémantique mesurable, les textes générés couvrent un spectre de vocabulaire et d'idées plus étroit, et un glissement artificiel vers la positivité, les contenus IA affichant systématiquement un ton plus optimiste et lissé que ceux rédigés par des humains. Ce travail s'inscrit dans un débat plus large sur ce que certains chercheurs appellent la "théorie de l'Internet mort", formulée dès 2021 et relancée début 2024 : l'idée que le web serait progressivement peuplé de contenus automatisés où des machines s'adressent à d'autres machines, au détriment d'une production humaine authentique. La méthode du rapport comporte toutefois des limites importantes : Pangram v3 est un outil commercial dont la méthode n'a pas été évaluée par des chercheurs indépendants, et les résultats dépendent donc directement de sa fiabilité réelle. Reste que cette étude est l'une des premières à quantifier l'empreinte de l'IA générative à l'échelle du web archivé, et elle devrait pousser les plateformes, moteurs de recherche et régulateurs à affiner leur compréhension des effets concrets, moins spectaculaires que redoutés, mais bien réels, de cette prolifération silencieuse.

UECette étude quantitative sur la prolifération des contenus IA pourrait alimenter les travaux des régulateurs européens, notamment sur les obligations de transparence et de marquage des contenus générés par IA prévues dans l'AI Act.

SociétéPaper
1 source
L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)
4Le Big Data 

L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)

Le 17 avril 2026, Elon Musk a publié sur le réseau X un message qui a immédiatement enflammé les débats économiques : selon lui, la meilleure réponse au chômage de masse causé par l'intelligence artificielle serait un « Universal High Income » (UHI), soit un Revenu Universel Élevé versé sous forme de chèques par le gouvernement fédéral américain. Ce n'est plus le simple filet de sécurité qu'il évoquait dès 2018 sous le nom d'UBI, mais une promesse d'aisance généralisée. Son argument central : l'IA et la robotique vont produire des biens et services en quantité tellement excédentaire par rapport à la masse monétaire injectée que l'inflation serait mécaniquement neutralisée, rendant un revenu confortable pour tous non seulement possible, mais nécessaire. Cette déclaration intervient alors que les robots humanoïdes et les modèles d'IA générative s'apprêtent à automatiser une part inédite du travail physique et intellectuel en ce début d'année 2026. L'impact potentiel d'une telle proposition est considérable, mais sa faisabilité économique est sévèrement contestée. Si Musk a raison, des dizaines de millions de travailleurs déplacés par l'automatisation bénéficieraient d'un revenu suffisant pour maintenir un niveau de vie correct, évitant une crise sociale d'ampleur historique. Mais la majorité des économistes jugent son calcul mathématiquement intenable : injecter massivement de l'argent public sans créer d'inflation suppose que la productivité des machines suive une courbe de déflation technologique sans précédent et soutenue, ce qui reste une hypothèse non démontrée. Le financement d'un tel programme représenterait des milliers de milliards de dollars annuels pour les seuls États-Unis, sans source de revenus fiscaux clairement identifiée dans un monde où les grandes entreprises tech optimisent déjà leur fiscalité. Cette sortie de Musk s'inscrit dans une trajectoire qui dure depuis plusieurs années, mais marque une rupture de ton. En 2018, il parlait de filet de sécurité ; pendant la pandémie, il saluait les chèques de 1 400 dollars comme un « UBI lite ». Aujourd'hui, il parle d'abondance et de post-rareté, une vision qui n'est plus défensive mais utopique. Derrière l'annonce se profile aussi une question philosophique que peu d'économistes osent quantifier : si le travail disparaît, comment des sociétés entières trouveront-elles sens, identité et cohésion sociale ? Le risque d'une dépendance généralisée à l'État, que certains appellent déjà le « techno-féodalisme », est réel. Musk lui-même, à la tête de Tesla, SpaceX et xAI, est l'un des principaux acteurs de cette automatisation qu'il propose maintenant de compenser financièrement, ce qui ne manque pas d'alimenter les questions sur les conflits d'intérêts et la sincérité du projet.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour