Aller au contenu principal
OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité
ÉthiqueThe Decoder6sem

OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité

Résumé IASource uniqueImpact UE
Source originale ↗·

Sam Altman, PDG d'OpenAI, et Kevin Weil, vice-président Science de l'entreprise, ont relayé avec enthousiasme l'histoire d'un consultant australien en IA qui affirmait avoir sauvé sa chienne Rosie d'un cancer incurable grâce à l'intelligence artificielle. L'homme aurait utilisé ChatGPT, AlphaFold — l'outil de prédiction de protéines de DeepMind — et Grok, le modèle d'xAI, pour concevoir un vaccin personnalisé contre la tumeur de son animal. L'histoire est devenue virale après avoir été partagée par Greg Brockman d'OpenAI et Demis Hassabis de DeepMind, présentée comme une démonstration concrète des capacités actuelles de l'IA en médecine.

Le problème : aucune preuve ne permet d'affirmer que le vaccin a fonctionné. Les dirigeants d'OpenAI ont amplifié un récit non vérifié comme s'il s'agissait d'une validation scientifique, sans mentionner l'absence totale de données cliniques. Cette promotion enthousiaste par les têtes de l'industrie soulève des questions sérieuses sur la responsabilité des grandes figures tech lorsqu'elles communiquent sur des résultats médicaux non prouvés.

L'épisode illustre une tension croissante dans l'écosystème IA : la pression de démontrer des cas d'usage spectaculaires pousse certains dirigeants à amplifier des anecdotes non vérifiées comme preuve de progrès. DeepMind avait pourtant déjà posé des jalons solides avec AlphaFold sur la prédiction de structures protéiques — une avancée réelle et publiée. Instrumentaliser cet outil dans une histoire virale sans validation scientifique brouille la frontière entre communication et désinformation, au moment même où la crédibilité de l'IA médicale est scrutée de près.

Impact France/UE

L'épisode renforce les arguments des régulateurs européens sur la nécessité d'encadrer strictement la communication des acteurs IA dans le domaine médical, un axe central de l'AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Les Numériques IA 

Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT

Une enquête journalistique accablante vient d'éclairer sous un jour nouveau la personnalité de Sam Altman, PDG d'OpenAI, l'entreprise derrière ChatGPT. Selon des proches et anciens collaborateurs qui ont brisé le silence, Altman aurait construit sa position dominante dans l'industrie de l'IA en instrumentalisant une rhétorique apocalyptique : convaincre chercheurs, investisseurs et gouvernements que l'intelligence artificielle pourrait anéantir l'humanité, et qu'il était l'homme indispensable pour en prendre les rênes. Certains de ses proches le décrivent comme "un sociopathe prêt à tout" pour maintenir son emprise sur une organisation qu'il a transformée en l'une des plus influentes au monde. Ces révélations interviennent à un moment où OpenAI est valorisée autour de 300 milliards de dollars et négocie en permanence avec des gouvernements sur la régulation de l'IA. Si le portrait dressé par l'enquête est exact, cela soulève des questions fondamentales sur la crédibilité d'Altman comme figure de proue du mouvement dit "d'IA sûre", un positionnement qui lui a permis d'attirer les meilleurs scientifiques du monde et des milliards de dollars de financements, notamment de Microsoft. OpenAI a été fondée en 2015 comme association à but non lucratif dédiée au développement sécurisé de l'IA, avant qu'Altman ne la transforme progressivement en entreprise commerciale de premier plan. En novembre 2023, le conseil d'administration l'avait brièvement licencié, déclenchant une crise interne majeure, avant que la pression des employés et des investisseurs ne le rétablisse dans ses fonctions. Cette enquête relance le débat sur la gouvernance d'OpenAI et la concentration du pouvoir entre les mains d'un seul homme à la tête d'une technologie aux enjeux civilisationnels.

UELes négociations d'OpenAI avec les gouvernements européens sur la régulation de l'IA pourraient être fragilisées si la crédibilité d'Altman comme garant de l'IA responsable est publiquement remise en question.

ÉthiqueActu
1 source
2The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Shy Girl : comment Hachette s’est fait piéger par un roman écrit par IA ?
3Le Big Data 

Shy Girl : comment Hachette s’est fait piéger par un roman écrit par IA ?

Hachette a suspendu en urgence la publication du roman Shy Girl, un roman d'horreur signé Mia Ballard, prévu ce printemps aux États-Unis. La décision intervient après que des lecteurs sur Goodreads et des créateurs YouTube ont signalé des incohérences stylistiques et des formulations jugées typiques d'une génération par intelligence artificielle. Le New York Times a interrogé l'éditeur la veille de l'annonce, suggérant une réaction accélérée sous pression médiatique. Hachette a également retiré son soutien à l'édition britannique déjà disponible. L'autrice, de son côté, conteste fermement les accusations : elle affirme ne pas avoir utilisé d'IA, mais reconnaît avoir fait appel à une connaissance pour retravailler une version auto-publiée du roman — ce qui complique considérablement le dossier. Ballard annonce des poursuites judiciaires et décrit une situation personnelle critique, affirmant que sa réputation est détruite et sa santé mentale sévèrement affectée. Ce cas soulève une question fondamentale pour toute l'industrie éditoriale : comment un texte soupçonné d'avoir été généré par IA a-t-il pu franchir les filtres d'un grand groupe comme Hachette ? La détection n'est pas venue d'outils professionnels ni des équipes internes, mais de la communauté des lecteurs elle-même — ce qui révèle une forme de surveillance collective que les éditeurs n'avaient pas anticipée. Le vrai enjeu touche à la crédibilité des processus éditoriaux : vérification des manuscrits, traçabilité des versions, responsabilité partagée entre auteur, correcteur et chaîne éditoriale. L'affaire pointe aussi une zone grise juridique et éthique encore non résolue : à partir de quand un texte devient-il "assisté par IA" ? Aucune norme sectorielle ne permet aujourd'hui de trancher facilement. Quelques discussions en ligne ont suffi à provoquer le retrait d'un livre entier — ce qui pourrait devenir systématique demain, avec des conséquences lourdes pour les auteurs et les éditeurs. L'origine même du roman ajoute une dimension supplémentaire à l'affaire. Shy Girl existait déjà sous forme auto-publiée avant d'être reprise par Hachette, et comme le souligne l'écrivain Lincoln Michel, il est rare que les éditeurs américains retravaillent en profondeur ce type de manuscrit — ce qui laisse entière la question de savoir à quel stade une éventuelle intervention de l'IA aurait eu lieu, et par qui.

UEHachette étant un groupe d'édition français (filiale de Lagardère), cette affaire impacte directement l'industrie éditoriale française et met en cause ses processus internes de vérification des manuscrits face à la détection de contenus générés par IA.

ÉthiqueOpinion
1 source
Anthropic et OpenAI consultent des responsables religieux sur l'éthique de l'IA
4The Decoder 

Anthropic et OpenAI consultent des responsables religieux sur l'éthique de l'IA

Anthropic et OpenAI ont réuni à New York des représentants de plusieurs grandes religions lors d'un premier sommet baptisé "Faith-AI Covenant". Les deux laboratoires américains, qui dominent actuellement le marché des modèles d'intelligence artificielle générative, ont invité des responsables religieux issus de traditions diverses pour engager un dialogue sur les questions éthiques soulevées par le développement de l'IA. L'initiative marque un tournant dans la manière dont ces entreprises cherchent à légitimer leur démarche éthique, en allant au-delà des cercles académiques et technologiques habituels. La démarche suscite cependant des critiques sérieuses. La chercheuse en IA Rumman Chowdhury juge ces discussions "au mieux une distraction" par rapport aux questions concrètes qui méritent une réponse urgente : encadrement réglementaire, responsabilité légale, contrôle démocratique des systèmes d'IA. Pour ses détracteurs, consulter des chefs religieux risque de court-circuiter des débats plus substantiels sur la gouvernance, sans produire de contraintes réelles sur les pratiques des entreprises. Cette initiative s'inscrit dans un contexte où les grands acteurs de l'IA cherchent à anticiper les critiques sur leurs méthodes de développement, souvent jugées opaques ou insuffisamment concertées. Face à une pression réglementaire croissante aux États-Unis et en Europe, Anthropic et OpenAI multiplient les gestes d'ouverture vers la société civile. L'intégration des communautés religieuses, qui représentent des milliards de personnes à travers le monde, pourrait servir à élargir la base de légitimité de ces entreprises, même si l'impact concret sur leurs décisions techniques reste à démontrer.

💬 Consulter des chefs religieux sur l'IA, c'est un coup de communication bien ficelé, et pas grand-chose d'autre. Rumman Chowdhury a raison : tant qu'il n'y a pas de responsabilité légale réelle au bout de la chaîne, ces sommets servent surtout à montrer patte blanche avant que le régulateur tape. Bon, au moins ils parlent à des gens en dehors de leur bulle tech, c'est déjà ça.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour