
La fin du finetuning
OpenAI vient d'annoncer la dépréciation de ses API de fine-tuning, marquant un tournant symbolique pour une pratique qui fut longtemps présentée comme un pilier de l'ingénierie IA. Pendant des années, OpenAI se distinguait des grands laboratoires précisément par ce support, et d'innombrables ingénieurs vantaient la promesse d'obtenir "des performances d'o1 à prix de 4o" grâce à cette technique. La décision s'inscrit dans ce que certains observateurs appellent déjà le "massacre des side quests 2026", après l'abandon de Sora. En parallèle, Anthropic se préparerait à lever des fonds à une valorisation supérieure à celle d'OpenAI pour la première fois de son histoire, signal d'un possible renversement de hiérarchie dans le secteur. Les données de veille de cette édition couvrent la période du 11 au 12 mai 2026, avec analyse de 12 subreddits et 544 comptes Twitter.
La fin du fine-tuning chez OpenAI ne signifie pas la mort de la pratique, mais elle révèle une fracture entre les usages mainstream et les acteurs de pointe. Pour 80% de l'industrie, le glissement vers les longs prompts et le prompt engineering était déjà en cours, comme Jeremy Howard l'avait anticipé dès 2023. En revanche, des entreprises comme Cursor ou Cognition, dont la levée de fonds à 25 milliards de dollars est désormais publique, ont au contraire augmenté leur recours au fine-tuning sur modèles ouverts via RLFT. Cette divergence illustre une réalité nouvelle : le fine-tuning devient une technique de haute spécialisation, réservée aux équipes disposant de l'infrastructure et des données nécessaires, tandis que le grand public se tourne vers des modèles de base de plus en plus puissants, guidés par des prompts sophistiqués comme la "Constitution" d'Anthropic.
Sur le front de la recherche, les benchmarks continuent leur course vers davantage de difficulté. Soohak propose 439 problèmes mathématiques de niveau recherche, rédigés par 64 mathématiciens dont 38 enseignants-chercheurs, expressément conçus pour dépasser les olympiades classiques. Google DeepMind présente son AI Co-Mathematician, un agent de recherche asynchrone atteignant 48% sur FrontierMath Tier 4, capable de vérification formelle de théorèmes et de découverte bibliographique. GPT-5.5 aurait résolu la première tâche du ProgramBench, surpassant Opus 4.7 sur plusieurs métriques. Côté retrieval, LightOn démontre qu'un modèle de 149 millions de paramètres, Agent-ModernColBERT, peut rivaliser avec des systèmes bien plus imposants sur BrowseComp-Plus. L'ère où plus grand rimait systématiquement avec meilleur semble s'effriter, tant pour les modèles de production que pour les outils de recherche.
LightOn, entreprise française, démontre qu'un modèle de 149M paramètres (Agent-ModernColBERT) rivalise avec des systèmes bien plus imposants sur BrowseComp-Plus, illustrant la compétitivité de l'écosystème IA européen face aux géants américains.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




