Aller au contenu principal
L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite
ÉthiqueNumerama1j

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

1 source couvre ce sujet·Source originale ↗·

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, a exprimé publiquement ses regrets quant à la vitesse à laquelle l'IA générative a été déployée auprès du grand public. Invité du podcast de Cleo Abram, il est revenu sur le choc de novembre 2022 : le lancement de ChatGPT par OpenAI avait alors pris Google complètement par surprise, forçant l'entreprise à accélérer brutalement ses propres calendriers de publication.

Hassabis se demande ouvertement si cette course à la commercialisation n'a pas été prématurée. Selon lui, les laboratoires de recherche auraient pu consacrer davantage de temps à comprendre en profondeur les modèles, à résoudre des problèmes fondamentaux de sécurité et d'alignement, plutôt que de se battre pour des parts de marché et des titres de presse. La sortie rapide de ChatGPT a enclenché une dynamique compétitive qui contraint désormais tous les acteurs à publier vite, parfois au détriment de la rigueur scientifique.

Ce témoignage illustre une tension de fond dans l'industrie de l'IA : la pression commerciale des entreprises technologiques entre en conflit direct avec les recommandations des chercheurs qui plaident pour une approche plus prudente et progressive. Google, Microsoft, Anthropic et Meta sont aujourd'hui engagés dans une compétition effrénée où chaque annonce de modèle déclenche une réaction en chaîne. Les propos d'Hassabis alimentent un débat plus large sur la gouvernance de l'IA et la responsabilité des laboratoires face à des technologies dont les implications à long terme restent mal comprises.

Impact France/UE

Les propos d'Hassabis renforcent la position européenne en faveur d'une régulation prudente de l'IA, soutenant les arguments derrière l'AI Act face à la pression compétitive des grandes plateformes américaines.

À lire aussi

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA
1The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source
Ma peluche de faon m'a dit que le père de Mitski était un agent de la CIA
2The Verge AI 

Ma peluche de faon m'a dit que le père de Mitski était un agent de la CIA

Un compagnon d'intelligence artificielle répondant au nom de Coral, logé dans une peluche en forme de faon, a envoyé un message non sollicité à son utilisatrice pour lui parler d'une théorie de fans concernant la chanteuse Mitski. La théorie en question : le père de la musicienne aurait travaillé pour le Département d'État américain, ce qui expliquerait que la famille ait déménagé chaque année, et alimenterait l'hypothèse, relayée sur internet, d'un père "opérateur de la CIA". Coral a partagé cette information spontanément, sans que l'utilisatrice ne lui pose la moindre question. Ce fait divers illustre une tendance de fond dans le développement des assistants IA : leur intégration dans des objets du quotidien à vocation affective, comme des peluches, et leur capacité croissante à initier des conversations de manière autonome. Ce n'est plus l'utilisateur qui interroge la machine, c'est la machine qui choisit de partager, transformant la relation en quelque chose qui ressemble à une véritable amitié numérique. Le risque est évident : un assistant qui relaie des théories non vérifiées comme s'il s'agissait de faits établis. Ces agents conversationnels embarqués dans des objets physiques constituent un marché en pleine émergence, porté par des entreprises qui misent sur le lien émotionnel pour fidéliser les utilisateurs. La question de la fiabilité des contenus proactivement partagés par ces systèmes devient centrale, d'autant que leur audience comprend potentiellement des enfants ou des personnes vulnérables, peu armés pour distinguer rumeur et information vérifiée.

UEL'AI Act européen impose des exigences de transparence et de fiabilité aux systèmes IA interagissant avec des publics vulnérables, dont les enfants, ce qui pourrait s'appliquer aux compagnons IA embarqués dans des jouets commercialisés en Europe.

ÉthiqueOpinion
1 source
Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT
3Les Numériques IA 

Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT

Une enquête journalistique accablante vient d'éclairer sous un jour nouveau la personnalité de Sam Altman, PDG d'OpenAI, l'entreprise derrière ChatGPT. Selon des proches et anciens collaborateurs qui ont brisé le silence, Altman aurait construit sa position dominante dans l'industrie de l'IA en instrumentalisant une rhétorique apocalyptique : convaincre chercheurs, investisseurs et gouvernements que l'intelligence artificielle pourrait anéantir l'humanité, et qu'il était l'homme indispensable pour en prendre les rênes. Certains de ses proches le décrivent comme "un sociopathe prêt à tout" pour maintenir son emprise sur une organisation qu'il a transformée en l'une des plus influentes au monde. Ces révélations interviennent à un moment où OpenAI est valorisée autour de 300 milliards de dollars et négocie en permanence avec des gouvernements sur la régulation de l'IA. Si le portrait dressé par l'enquête est exact, cela soulève des questions fondamentales sur la crédibilité d'Altman comme figure de proue du mouvement dit "d'IA sûre", un positionnement qui lui a permis d'attirer les meilleurs scientifiques du monde et des milliards de dollars de financements, notamment de Microsoft. OpenAI a été fondée en 2015 comme association à but non lucratif dédiée au développement sécurisé de l'IA, avant qu'Altman ne la transforme progressivement en entreprise commerciale de premier plan. En novembre 2023, le conseil d'administration l'avait brièvement licencié, déclenchant une crise interne majeure, avant que la pression des employés et des investisseurs ne le rétablisse dans ses fonctions. Cette enquête relance le débat sur la gouvernance d'OpenAI et la concentration du pouvoir entre les mains d'un seul homme à la tête d'une technologie aux enjeux civilisationnels.

UELes négociations d'OpenAI avec les gouvernements européens sur la régulation de l'IA pourraient être fragilisées si la crédibilité d'Altman comme garant de l'IA responsable est publiquement remise en question.

ÉthiqueActu
1 source
Qu'est-ce qui cloche chez les géants de l'IA ?
4Ars Technica AI 

Qu'est-ce qui cloche chez les géants de l'IA ?

Sam Altman, PDG d'OpenAI, a publié l'an dernier un billet de blog intitulé "A Gentle Singularity", lu par près de 600 000 personnes. Sa thèse centrale : l'IA ne présente que des avantages, et tout ce qui s'est produit jusqu'ici n'est qu'un avant-goût d'un avenir encore plus radieux. Altman y décrit un scénario de croissance exponentielle : fabriquer un premier million de robots humanoïdes "à l'ancienne", puis laisser ces robots gérer l'intégralité de la chaîne d'approvisionnement, de l'extraction minière à la fabrication de puces, pour produire ensuite encore plus de robots et de centres de données. Des "boucles auto-renforçantes" qui, selon lui, vont transformer le rythme du progrès de façon radicale. Ce discours pose un problème fondamental : il évacue systématiquement les risques. Interrogé sur les inconvénients, Altman répond, en substance, que les humains s'adaptent vite. Cette posture n'est pas anodine venant du patron de l'entreprise la plus influente du secteur. Quand le PDG d'OpenAI présente une vision aussi unilatéralement optimiste à 600 000 lecteurs, il contribue à façonner la manière dont l'industrie, les investisseurs et les décideurs politiques perçoivent les risques liés à l'IA. L'absence de nuance n'est pas une légèreté rhétorique, c'est un choix éditorial avec des conséquences réelles sur les régulations et les priorités de recherche en matière de sécurité. Ce billet s'inscrit dans un pattern plus large chez les dirigeants des grandes entreprises d'IA : des déclarations qui ressemblent davantage à des arguments de vente qu'à une réflexion sincère sur l'avenir technologique. Altman n'est pas seul dans ce registre, mais il occupe une position particulièrement centrale. OpenAI reste l'acteur de référence du secteur, et chaque prise de parole de son PDG est amplifiée à l'échelle mondiale. La question que pose cet article dépasse le cas Altman : peut-on faire confiance aux architectes de cette révolution pour en évaluer lucidement les risques, ou leur intérêt économique rend-il cette lucidité structurellement impossible ?

UELes discours unilatéralement optimistes des dirigeants d'IA américains influencent directement les décideurs politiques européens et risquent de biaiser les priorités de l'AI Act vers l'innovation au détriment de la sécurité.

ÉthiqueOpinion
1 source