
Import AI 455 : automatiser la recherche en IA
Jack Clark, cofondateur d'Anthropic et auteur de la newsletter Import AI, estime désormais qu'il existe une probabilité supérieure à 60 % qu'un système d'IA soit capable d'entraîner lui-même son successeur sans intervention humaine d'ici fin 2028. Cette projection, qu'il qualifie lui-même de "reluctante" tant ses implications lui semblent vertigineuses, repose sur l'analyse de publications scientifiques accessibles publiquement sur arXiv, bioRxiv et NBER, ainsi que sur les produits déployés par les laboratoires de pointe. Clark ne s'attend pas à ce que cela se produise en 2026, mais anticipe une preuve de concept, un modèle entraînant son successeur de bout en bout, d'ici un à deux ans, d'abord sur des modèles non-frontier avant d'atteindre les systèmes les plus avancés, bien plus coûteux à produire. L'un des indicateurs les plus frappants qu'il cite est le benchmark SWE-Bench, qui mesure la capacité des IA à résoudre de vrais problèmes GitHub : en 2023, Claude 2 n'obtenait que 2 % de réussite ; aujourd'hui, Claude Mythos Preview atteint 93,9 %, saturant pratiquement le test.
Si cette trajectoire se confirme, l'impact serait sans précédent dans l'histoire technologique. L'automatisation de la recherche en IA signifierait que les cycles d'amélioration des modèles n'auraient plus besoin d'ingénieurs humains pour concevoir les architectures, sélectionner les données ou définir les objectifs d'entraînement. La vitesse de progression du domaine, déjà exponentielle, pourrait s'accélérer de manière difficilement prévisible. Pour les entreprises technologiques, les centres de recherche académiques et les gouvernements, cela pose la question de savoir comment maintenir un contrôle humain significatif sur des systèmes dont l'évolution échappe partiellement à la supervision traditionnelle. Clark souligne explicitement que la société n'est probablement pas prête pour les transformations qu'implique un tel basculement.
Cette réflexion s'inscrit dans un contexte où la communauté IA débat depuis plusieurs années du concept de "takeoff", le moment où les systèmes deviendraient capables d'amélioration autonome et récursive. Longtemps considéré comme un scénario lointain ou spéculatif, ce seuil semble se rapprocher à mesure que les benchmarks de codage, de raisonnement et d'autonomie des agents progressent. Des acteurs comme OpenAI, Google DeepMind et Anthropic investissent massivement dans des agents capables d'enchaîner des tâches complexes sans supervision humaine. Clark prévient qu'une fois ce Rubicon franchi, les prévisions habituelles sur l'évolution de l'IA perdront leur pertinence, et annonce qu'il consacrera l'essentiel de 2026 à analyser les implications concrètes de ce scénario pour la société, l'économie et la gouvernance technologique mondiale.
Si cette trajectoire se confirme d'ici 2028, les institutions européennes, Commission, Parlement et ENISA, devront réviser en urgence les cadres de gouvernance de l'AI Act pour couvrir des systèmes d'IA capables d'auto-amélioration récursive, un scénario non anticipé dans les textes actuels.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


