Import AI 448 : R&D en IA ; l'agent CUDA de ByteDance ; IA satellite embarquée
Ajeya Cotra, chercheuse reconnue spécialisée dans les prévisions sur l'IA, vient de publier une mise à jour publique dans laquelle elle reconnaît avoir sous-estimé la vitesse de progression des systèmes d'intelligence artificielle. En janvier 2026, elle anticipait qu'un agent IA aurait un "horizon temporel" — c'est-à-dire la durée maximale de travail autonome qu'il peut mener sans assistance humaine — d'environ 24 heures d'ici fin 2026. Or, les derniers résultats de METR (une organisation qui évalue les capacités des agents IA) montrent que Claude Opus 4.6 d'Anthropic atteint déjà un horizon de 12 heures. Cotra révise donc ses estimations à la hausse : selon elle, d'ici la fin de l'année, les agents IA devraient dépasser les 100 heures d'autonomie sur des tâches logicielles complexes. Dans ce même numéro de la newsletter Import AI, des chercheurs de GovAI et de l'Université d'Oxford publient un cadre de 14 métriques conçu pour mesurer l'avancement de l'automatisation de la R&D en IA — c'est-à-dire la capacité des systèmes IA à construire d'autres systèmes IA.
Ces développements ont des implications directes pour l'ensemble du secteur technologique. Un agent capable de travailler de manière autonome pendant plus de 100 heures représente l'équivalent de plusieurs semaines-homme de travail qualifié, ce qui remet en question le concept même de "temps de cycle" dans le développement logiciel. Pour les entreprises qui s'appuient sur des équipes d'ingénieurs, c'est un signal fort : l'IA ne se contente plus d'assister les développeurs, elle commence à les remplacer sur des tâches étendues et complexes. Les 14 métriques proposées par GovAI visent précisément à anticiper le moment où l'IA deviendrait capable d'amélioration récursive — c'est-à-dire de se perfectionner elle-même —, un seuil souvent décrit comme un point de bascule majeur, au-delà duquel l'accélération technologique pourrait devenir difficile à piloter.
La notion d'amélioration récursive de l'IA est débattue depuis des années dans les cercles de la sécurité des systèmes avancés, mais elle était jusque-là considérée comme un horizon lointain. Les progrès récents de modèles comme Opus 4.6 signalent que cet horizon se rapproche beaucoup plus vite que prévu, y compris par celles et ceux dont c'est le métier de l'estimer. GovAI et Oxford proposent des indicateurs concrets — performance relative des IA versus équipes humaines, fréquence d'utilisation dans les décisions critiques, niveau de permissions accordées aux systèmes, taux de comportements indésirables en production — pour permettre aux régulateurs et aux laboratoires de suivre cette trajectoire avant qu'elle ne devienne incontrôlable. L'enjeu affiché est explicite : l'automatisation de la R&D en IA pourrait accélérer à la fois les bénéfices attendus et les risques les plus graves, incluant le développement d'armes de destruction massive ou des disruptions économiques massives liées au chômage technologique.
Les 14 métriques publiées par GovAI et l'Université d'Oxford pour mesurer l'automatisation de la R&D en IA pourraient directement alimenter le cadre réglementaire européen, notamment les dispositions de l'AI Act relatives aux systèmes à haut risque et aux modèles à usage général.



