
Qu'est-ce qui cloche chez les géants de l'IA ?
Sam Altman, PDG d'OpenAI, a publié l'an dernier un billet de blog intitulé "A Gentle Singularity", lu par près de 600 000 personnes. Sa thèse centrale : l'IA ne présente que des avantages, et tout ce qui s'est produit jusqu'ici n'est qu'un avant-goût d'un avenir encore plus radieux. Altman y décrit un scénario de croissance exponentielle : fabriquer un premier million de robots humanoïdes "à l'ancienne", puis laisser ces robots gérer l'intégralité de la chaîne d'approvisionnement, de l'extraction minière à la fabrication de puces, pour produire ensuite encore plus de robots et de centres de données. Des "boucles auto-renforçantes" qui, selon lui, vont transformer le rythme du progrès de façon radicale.
Ce discours pose un problème fondamental : il évacue systématiquement les risques. Interrogé sur les inconvénients, Altman répond, en substance, que les humains s'adaptent vite. Cette posture n'est pas anodine venant du patron de l'entreprise la plus influente du secteur. Quand le PDG d'OpenAI présente une vision aussi unilatéralement optimiste à 600 000 lecteurs, il contribue à façonner la manière dont l'industrie, les investisseurs et les décideurs politiques perçoivent les risques liés à l'IA. L'absence de nuance n'est pas une légèreté rhétorique, c'est un choix éditorial avec des conséquences réelles sur les régulations et les priorités de recherche en matière de sécurité.
Ce billet s'inscrit dans un pattern plus large chez les dirigeants des grandes entreprises d'IA : des déclarations qui ressemblent davantage à des arguments de vente qu'à une réflexion sincère sur l'avenir technologique. Altman n'est pas seul dans ce registre, mais il occupe une position particulièrement centrale. OpenAI reste l'acteur de référence du secteur, et chaque prise de parole de son PDG est amplifiée à l'échelle mondiale. La question que pose cet article dépasse le cas Altman : peut-on faire confiance aux architectes de cette révolution pour en évaluer lucidement les risques, ou leur intérêt économique rend-il cette lucidité structurellement impossible ?
Les discours unilatéralement optimistes des dirigeants d'IA américains influencent directement les décideurs politiques européens et risquent de biaiser les priorités de l'AI Act vers l'innovation au détriment de la sécurité.



