The Download : un prix Nobel sur l'IA, et pourquoi il faut tout réparer

Daron Acemoglu, lauréat du prix Nobel d'économie 2024, maintient une position prudente face à l'enthousiasme ambiant autour de l'intelligence artificielle. Quelques mois avant de recevoir son prix, il avait publié une étude affirmant que l'IA n'apporterait qu'un gain modeste à la productivité américaine et ne remplacerait pas massivement le travail humain. Deux ans plus tard, les données lui donnent toujours raison malgré les avancées technologiques indéniables de la période. Dans le même temps, Google a détecté et bloqué ce qui serait le premier exploit de type zero-day entièrement conçu par une IA, qualifié de tentative d'exploitation à grande échelle. Parallèlement, OpenAI a lancé Codex Daybreak, un outil de cybersécurité capable de détecter et corriger des vulnérabilités logicielles avant que des attaquants ne les découvrent, concurrençant directement Claude Mythos d'Anthropic, sorti un mois plus tôt. Enfin, Ilya Sutskever, cofondateur d'OpenAI, a témoigné cette semaine dans le procès Altman contre Musk, affirmant avoir passé un an à collecter des preuves d'un "schéma de mensonges" de la part de Sam Altman, tout en apportant parallèlement des éléments à la défense d'OpenAI.
Ces développements dessinent deux tendances majeures pour le secteur. D'un côté, le débat sur l'impact économique réel de l'IA reste ouvert : là où les entreprises technologiques promettent une révolution de la productivité, les économistes comme Acemoglu rappellent que les données observées ne confirment pas encore ces prédictions. De l'autre, la militarisation de l'IA dans le domaine cyber prend une ampleur industrielle : des outils permettent désormais de découvrir des failles inconnues de façon automatisée, abaissant drastiquement le seuil d'entrée pour des attaques sophistiquées. Le lancement de produits concurrents chez OpenAI et Anthropic pour sécuriser les logiciels signale que la cybersécurité devient un marché stratégique pour les grands laboratoires d'IA.
Le contexte géopolitique s'intensifie également, avec Donald Trump qui se rend en Chine cette semaine accompagné d'Elon Musk et de Tim Cook pour promouvoir la tech américaine, alors même que les investisseurs appellent les deux gouvernements à ne pas freiner l'essor de l'IA. Le procès entre Sam Altman et Elon Musk, quant à lui, lève le voile sur les tensions internes qui ont secoué OpenAI lors de l'éviction puis du retour d'Altman en 2023, avec Satya Nadella qualifiant les tentatives de destitution d'"amateurisme". Ces frictions révèlent que derrière les annonces spectaculaires du secteur se jouent des batailles de pouvoir dont les conséquences pourraient redéfinir la gouvernance des entreprises les plus influentes de l'IA mondiale.
L'émergence d'outils IA capables de découvrir et d'exploiter des failles zero-day de façon entièrement automatisée représente une menace directe pour les entreprises et infrastructures critiques européennes, qui devront accélérer leurs stratégies de réponse en cybersécurité.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


