Aller au contenu principal
SociétéLe Big Data1h

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

1 source couvre ce sujet·Source originale ↗·
« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI
▶ Voir sur YouTube

Sam Altman a accordé une interview rare et sans filtre à la journaliste Laurie Segall pour son podcast "Mostly Human", dans laquelle le PDG d'OpenAI a tenu des propos d'une franchise inhabituelle sur l'avenir de l'intelligence artificielle et les choix stratégiques qui façonnent son entreprise. Au coeur de ces révélations : l'abandon de Sora, le générateur de vidéos ultra-réalistes d'OpenAI, présenté comme une décision "très difficile" prise à la dernière minute alors qu'un partenariat d'un milliard de dollars avec Disney était déjà engagé. Altman a personnellement appelé Josh D'Amaro, dirigeant chez Disney, pour annuler l'accord. Parallèlement, son directeur des opérations Brad Lightcap a révélé que GPT-5.4, âgé de quelques jours à peine, affichait déjà un rythme de revenus d'un milliard de dollars annualisé, traitant cinq billions de tokens par jour, avec des cycles de développement qui s'accélèrent à une vitesse stupéfiante.

L'abandon de Sora répond à deux logiques qui se renforcent mutuellement. La première est éthique : Altman craignait de concevoir des mécanismes de récompense générant une dépendance incontrôlable chez les utilisateurs, au moment même où la justice américaine condamnait Meta et Google à payer des centaines de millions de dollars pour avoir délibérément rendu des adolescents accros à leurs plateformes, dont une amende record de 375 millions de dollars pour Meta. La seconde est purement technique : maintenir Sora en vie aurait vampirisé les ressources de calcul nécessaires au développement de la prochaine génération d'IA. Dans une industrie où la puissance computationnelle est la ressource la plus rare et la plus stratégique, chaque serveur compte, et le sacrifice d'un produit à succès au profit de la recherche fondamentale traduit une vision de long terme assumée.

Ces aveux s'inscrivent dans un contexte de pression intense sur les grandes plateformes technologiques. Les procès intentés contre Meta et Google à Los Angeles et au Nouveau-Mexique marquent un tournant dans la responsabilisation juridique des géants du numérique, comparés désormais à l'industrie du tabac pour leurs pratiques addictives. OpenAI, en pleine transformation de statut à but non lucratif vers une structure commerciale valorisée à plusieurs centaines de milliards de dollars, navigue entre ambition démiurgique et nécessité de se démarquer éthiquement de ses concurrents. Les déclarations d'Altman sur la "scission de l'humanité" et la fin du salariat de masse, aussi provocatrices soient-elles, signalent une entreprise qui ne cherche plus à minimiser l'ampleur de ce qu'elle construit, mais à en assumer pleinement la portée historique.

Impact France/UE

Les déclarations d'Altman sur la fin du salariat de masse et la 'scission de l'humanité' alimentent directement le débat européen sur l'AI Act et les garde-fous sociaux à imposer aux systèmes d'IA générale.

À lire aussi

1Numerama 

La première entreprise milliardaire bâtie grâce à l’IA… génère 800 faux médecins ?

Medvi, start-up américaine spécialisée dans la santé en ligne, a été mise en lumière par le New York Times le 2 avril 2026 comme l'une des premières entreprises à atteindre le statut de licorne en s'appuyant massivement sur l'intelligence artificielle pour piloter sa croissance. Fondée avec une poignée d'employés humains, la société a automatisé l'essentiel de son marketing et de sa communication, atteignant une valorisation milliardaire en un temps record. Cette trajectoire soulève cependant des questions sérieuses sur la fiabilité des pratiques de la plateforme. Selon l'enquête du New York Times, Medvi aurait utilisé des profils de médecins fictifs ou invérifiables — environ 800 selon les sources citées — pour crédibiliser son offre de téléconsultation. Dans le secteur médical, où la confiance des patients repose sur l'authenticité des praticiens, une telle pratique constitue un risque majeur pour la sécurité des utilisateurs. Ce cas s'inscrit dans un débat plus large sur la régulation des start-up IA dans les secteurs sensibles. Plusieurs plateformes de santé numérique ont déjà été épinglées pour des dérives similaires, et les régulateurs américains commencent à examiner de plus près les pratiques de contenu automatisé dans la télémédecine. L'avenir de Medvi dépendra en grande partie de sa capacité à répondre aux accusations avant une éventuelle intervention de la FDA ou des autorités médicales d'État.

UECe type de dérive dans la télémédecine automatisée par l'IA pourrait accélérer l'élaboration de règles sectorielles spécifiques à la santé numérique dans le cadre de l'AI Act européen.

SociétéActu
1 source
2Siècle Digital 

« AI slop » : ces contenus générés par IA qui envahissent YouTube Kids et inquiètent les experts

Près de 40 % des recommandations proposées aux enfants après une vidéo sur YouTube Kids sont des contenus générés par intelligence artificielle de mauvaise qualité, selon une analyse récente. Ces productions, baptisées « AI slop », se présentent sous forme d'animations éducatives où les lettres affichées ne correspondent pas aux sons prononcés, de chansons énumérant des mots déformés ou de comptines visuellement incohérentes. L'algorithme de recommandation de YouTube les propulse massivement dans les flux enfants, immédiatement après des contenus populaires comme Cocomelon. L'enjeu est particulièrement grave pour cette tranche d'âge : les enfants en bas âge sont en phase d'apprentissage du langage et de la lecture, et une exposition répétée à des contenus phonétiquement erronés ou visuellement incohérents peut perturber ce développement. Les experts en pédiatrie et en linguistique s'inquiètent d'un effet d'apprentissage inversé, où l'enfant assimile des associations incorrectes entre sons, lettres et images. Pour les parents, le problème est d'autant plus insidieux que ces vidéos imitent superficiellement les codes des contenus éducatifs légitimes. Ce phénomène s'inscrit dans une explosion plus large de contenus générés automatiquement sur les plateformes vidéo, facilitée par la démocratisation des outils d'IA générative. YouTube, qui avait déjà été critiqué pour l'affaire « Elsagate » en 2017, des vidéos choquantes déguisées en dessins animés, fait face à une nouvelle vague difficile à modérer à l'échelle. La question de la responsabilité des plateformes dans la curation algorithmique des contenus destinés aux mineurs revient au centre du débat réglementaire, notamment en Europe où le DSA impose des obligations renforcées de protection des utilisateurs vulnérables.

UELe DSA impose aux plateformes des obligations renforcées de protection des mineurs, ce qui rend YouTube directement exposé à des sanctions européennes si ses algorithmes de recommandation continuent de propulser ces contenus vers les enfants.

SociétéOpinion
1 source
3The Verge AI 

Les chatbots prescrivent désormais des médicaments psychiatriques

L'Utah vient d'autoriser un chatbot à renouveler des ordonnances de médicaments psychiatriques sans intervention d'un médecin. Ce pilote d'un an, annoncé la semaine dernière, concerne le système développé par Legion Health, une startup de San Francisco. Concrètement, les patients résidant en Utah pourront obtenir le renouvellement de certaines prescriptions psychiatriques via l'application, pour un abonnement de 19 dollars par mois. Il s'agit seulement de la deuxième fois qu'un État américain délègue ce type d'autorité clinique à une intelligence artificielle. Les autorités de l'Utah avancent deux arguments principaux : réduire les coûts de santé et pallier la pénurie de psychiatres, particulièrement aiguë dans les zones rurales. Mais les médecins s'y opposent fermement. Ils dénoncent un système opaque, dont les mécanismes de décision sont difficilement auditables, et jugent le risque clinique élevé pour des patients souvent vulnérables. Ils contestent aussi l'idée que cette approche atteindra réellement les personnes qui n'ont pas accès aux soins, estimant que le modèle par abonnement cible plutôt une clientèle déjà aisée et connectée. Cette initiative s'inscrit dans un mouvement plus large de délégation de tâches médicales à l'IA aux États-Unis, portée par la promesse de réduire les coûts dans un système de santé sous pression. Legion Health n'est pas la première entreprise à tenter de s'imposer dans la télémédecine psychiatrique, un marché en pleine expansion depuis la pandémie. L'expérimentation en Utah sera scrutée de près : son bilan à un an pourrait soit accélérer l'adoption nationale de ces systèmes, soit freiner durablement leur déploiement dans le domaine sensible de la santé mentale.

SociétéReglementation
1 source
IA vs expertise humaine : comment choisir ses services de traduction juridique à l’ère du numérique ?
4Le Big Data 

IA vs expertise humaine : comment choisir ses services de traduction juridique à l’ère du numérique ?

L'intelligence artificielle bouleverse aujourd'hui le secteur de la traduction juridique, un domaine longtemps réservé aux spécialistes du droit comparé. Les outils de génération automatique de texte promettent de traiter contrats, actes notariés ou conventions en quelques secondes, à une fraction du coût d'un traducteur humain. Les algorithmes modernes identifient des structures récurrentes, proposent des équivalences terminologiques et peuvent dégager rapidement les grandes lignes d'un dossier volumineux. Ce gain de vitesse représente un avantage concret pour les entreprises confrontées à des délais serrés et à des volumes importants de documents multilingues. Mais cette efficacité apparente dissimule des risques réels, particulièrement graves dans le contexte juridique. Le droit est une discipline de la précision absolue : chaque mot porte une portée contraignante, et une clause mal traduite peut rendre un document caduc, exposer une partie à des sanctions financières ou provoquer un litige international. Les modèles de langage fonctionnent par probabilités statistiques et ne comprennent pas les concepts qu'ils manipulent. Ils sont incapables de percevoir les subtilités culturelles, les non-dits d'un texte contractuel ou les nuances propres à un système juridique donné. Le passage du droit civil à la common law, par exemple, implique de transposer des notions qui n'ont parfois pas d'équivalent direct, une opération qui exige un expert en droit comparé, pas un algorithme. À cela s'ajoute la question de la confidentialité : les outils d'IA en ligne peuvent exposer ou réutiliser les données sensibles transmises, ce qui est inacceptable pour des dossiers juridiques stratégiques. La réponse qui s'impose dans le secteur n'est pas l'opposition entre humain et machine, mais leur collaboration structurée. Le modèle dit de traduction automatique post-éditée, ou MTPE, s'impose progressivement comme la norme : l'IA fournit une ébauche rapide, le traducteur juridique spécialisé corrige, affine et valide chaque segment en engageant sa responsabilité professionnelle. Cette approche hybride concilie les contraintes de délais avec la rigueur qu'exige le droit. La technologie prend en charge les tâches répétitives et la gestion des glossaires terminologiques, libérant le spécialiste pour l'essentiel : vérifier la cohérence juridique et garantir que la traduction produit les mêmes effets que le texte d'origine. Alors que les cabinets d'avocats, les multinationales et les institutions publiques multiplient leurs échanges transfrontaliers, ce modèle hybride devient moins un choix qu'une nécessité pour quiconque veut allier performance et sécurité juridique.

UELe cadre juridique français (droit civil, actes notariés, conventions) est au cœur du propos, ce qui rend l'analyse directement pertinente pour les cabinets d'avocats et entreprises opérant en France.

SociétéOpinion
1 source