Aller au contenu principal
LLMsMarkTechPost10h

Guide du prompting systématique : contraintes négatives, sorties JSON structurées et échantillonnage multi-hypothèses verbalisé

Résumé IASource uniqueImpact UE
Source originale ↗·

La fiabilité des grands modèles de langage en production est devenue une préoccupation d'ingénierie à part entière. Un guide technique récemment publié identifie cinq techniques de prompting avancées, conçues non pas pour améliorer les résultats en moyenne, mais pour garantir leur cohérence dans des systèmes critiques. Ces méthodes opèrent entièrement au niveau du prompt, sans nécessiter de fine-tuning, de modification du modèle ni d'infrastructure supplémentaire. Les cinq techniques présentées sont : le prompting par rôle (role-specific prompting), le prompting négatif, le prompting structuré JSON, les requêtes de raisonnement attentif (ARQ, Attentive Reasoning Queries) et l'échantillonnage verbalisé (verbalized sampling). L'auteur les démontre en comparant côte à côte des résultats obtenus avec et sans chaque technique sur les mêmes tâches, en utilisant le modèle GPT-4o-mini d'OpenAI via l'API.

La principale valeur de ces approches réside dans leur capacité à corriger des modes de défaillance précis. Le prompting par rôle, qui consiste à attribuer un persona dans le prompt système comme « vous êtes un chercheur senior en sécurité applicative », ne modifie pas les faits que le modèle connaît, mais change les parties de sa connaissance pondérées en priorité. Dans un exemple sur les tokens de session stockés en localStorage, la réponse sans rôle décrit les risques de manière générale, tandis que la réponse avec rôle raisonne comme un attaquant, en détaillant ce qu'un adversaire ferait concrètement en cas d'injection XSS. Le prompting négatif précise explicitement ce que le modèle ne doit pas faire, évitant certains formats, biais ou glissements stylistiques indésirables. Le JSON prompting contraint la sortie à une structure définie, indispensable lorsque le résultat doit être parsé par un programme en aval. Enfin, ARQ et l'échantillonnage verbalisé forcent le modèle à expliciter son raisonnement ou à explorer plusieurs hypothèses avant de conclure, réduisant les erreurs silencieuses qui passent inaperçues dans les évaluations rapides.

Ces travaux s'inscrivent dans une tendance plus large de formalisation du prompt engineering comme discipline à part entière. Longtemps considéré comme de l'empirisme artisanal, le prompting fait l'objet depuis 2023 d'une littérature de recherche croissante : des équipes chez Google DeepMind, Meta et des chercheurs indépendants ont publié des taxonomies et des benchmarks pour évaluer ces techniques de manière systématique. L'enjeu est de taille : à mesure que les LLMs s'intègrent dans des pipelines automatisés comme l'analyse médicale, la génération de code ou le traitement juridique, la différence entre un prompt qui « marche souvent » et un prompt qui « marche toujours » devient une question de risque opérationnel. Les développeurs qui maîtrisent ces cinq techniques peuvent déployer des systèmes plus robustes sans modifier les modèles eux-mêmes, ce qui représente un avantage économique et technique considérable dans un contexte où le fine-tuning reste coûteux et complexe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'hypothèse de LoRA qui ne tient pas en production
1MarkTechPost 

L'hypothèse de LoRA qui ne tient pas en production

LoRA (Low-Rank Adaptation) est devenu la méthode de référence pour adapter les grands modèles de langage à moindre coût : plutôt que de modifier l'intégralité des paramètres d'un modèle, la technique n'entraîne que de petites matrices de rang réduit, ce qui diminue considérablement la mémoire et le temps de calcul nécessaires. Mais LoRA repose sur une hypothèse silencieuse : toutes les mises à jour d'un modèle se ressemblent structurellement. En réalité, ce n'est pas le cas. Quand on fine-tune un modèle pour modifier son style (ton, format, persona), les changements sont concentrés dans quelques dimensions seulement, et LoRA les gère parfaitement avec un rang faible comme rank-8. En revanche, quand on cherche à lui enseigner de nouvelles connaissances factuelles (données médicales, statistiques sportives, informations juridiques), l'information est distribuée sur de nombreuses dimensions simultanément, et un rang faible ne peut en capturer qu'une fraction : le modèle paraît sûr de lui mais produit des réponses incomplètes ou incorrectes. Augmenter le rang pour compenser déclenche un autre problème : la formule de mise à l'échelle standard de LoRA, qui divise par r, affaiblit le signal d'apprentissage à mesure que le rang grandit. RS-LoRA (Rank-Stabilized LoRA) corrige cela en remplaçant la division par r par une division par √r, un changement d'un seul caractère dans le code qui stabilise l'apprentissage même à des rangs élevés comme rank-32. Les conséquences pratiques sont significatives pour toutes les équipes qui déploient des LLMs dans des domaines à forte densité factuelle : médecine, droit, finance. Utiliser un LoRA standard pour injecter des connaissances spécialisées crée une illusion de performance, le modèle répond avec fluidité et apparente confiance, mais ses réponses peuvent être partiellement fausses. Le problème est d'autant plus dangereux qu'il reste invisible : sans tests rigoureux sur les faits précis que l'on cherchait à enseigner, le modèle passe tous les benchmarks généraux et échoue silencieusement sur les cas critiques en production. Cette limitation de LoRA n'est pas nouvelle dans la littérature académique, mais elle reste sous-estimée dans les pratiques industrielles. LoRA a été introduit en 2021 par des chercheurs de Microsoft comme alternative efficace au fine-tuning complet, et il s'est imposé comme méthode dominante grâce à sa facilité d'implémentation dans des bibliothèques comme Hugging Face PEFT. RS-LoRA représente l'une des améliorations formalisées de cette approche, aux côtés d'autres variantes comme DoRA ou AdaLoRA, qui cherchent toutes à mieux adapter la technique selon les régimes d'apprentissage. À mesure que les LLMs s'imposent dans des secteurs critiques, savoir quelle technique choisir selon le type de connaissance à injecter devient une compétence essentielle pour les équipes ML, bien au-delà du sujet de recherche théorique.

LLMsPaper
1 source
Construire des systèmes à base d'agents prêts pour la production avec Z.AI GLM-5 : raisonnement, appel d'outils et streaming
2MarkTechPost 

Construire des systèmes à base d'agents prêts pour la production avec Z.AI GLM-5 : raisonnement, appel d'outils et streaming

Z.AI a publié un tutoriel complet présentant les capacités avancées de son modèle GLM-5, conçu pour construire des systèmes agentiques prêts pour la production. Le guide couvre l'intégralité du cycle de développement : configuration via le SDK Z.AI (compatible avec l'interface OpenAI), réponses en streaming, mode de raisonnement approfondi (dit "thinking mode"), conversations multi-tours, appels de fonctions, sorties structurées, et construction d'un agent multi-outils complet. L'installation se fait via pip avec les paquets zai-sdk et openai, et l'authentification repose sur une clé API obtenue gratuitement sur z.ai. Dès les premières lignes de code, GLM-5 répond à des questions techniques — comme expliquer l'architecture Mixture-of-Experts en trois phrases — avec une consommation de tokens détaillée et un contrôle fin via les paramètres temperature et max_tokens. Ce qui distingue GLM-5 des modèles classiques est son mode de raisonnement enchaîné (chain-of-thought), qui expose le processus interne du modèle avant de fournir une réponse finale. Sur des problèmes logiques ou mathématiques — l'exemple du fermier avec 17 moutons dont "tous sauf 9 s'enfuient" illustre le piège classique de la lecture rapide — le modèle affiche séparément son raisonnement intermédiaire et sa conclusion. Cette transparence est particulièrement précieuse pour les équipes qui déploient des agents autonomes dans des contextes critiques : débogage plus facile, auditabilité améliorée, et meilleure confiance dans les décisions du modèle. Le streaming en temps réel des tokens, géré chunk par chunk, rend l'expérience utilisateur fluide même pour des réponses longues et complexes. GLM-5 s'inscrit dans la dynamique actuelle d'ouverture des modèles chinois à l'écosystème international. Z.AI, filiale de Zhipu AI — laboratoire issu de l'Université Tsinghua — positionne GLM-5 comme un concurrent direct aux modèles d'OpenAI et Anthropic, avec une compatibilité API volontairement calquée sur le standard OpenAI pour faciliter la migration. La prise en charge native du function calling et des sorties structurées permet d'intégrer GLM-5 dans des pipelines d'automatisation complexes sans couche d'adaptation. Alors que les entreprises cherchent à diversifier leurs dépendances vis-à-vis des fournisseurs américains, ce type de modèle — accessible, documenté, et compatible avec les outils existants — représente une alternative crédible pour les développeurs européens et asiatiques construisant des applications d'IA en production.

UEGLM-5 offre aux développeurs européens une alternative compatible OpenAI pour diversifier leurs dépendances vis-à-vis des fournisseurs américains, accessible gratuitement via une clé API.

LLMsTuto
1 source
Implémentation pratique : analyse, visualisation et affinage de traces de raisonnement d'agents
3MarkTechPost 

Implémentation pratique : analyse, visualisation et affinage de traces de raisonnement d'agents

Un tutoriel de programmation publié récemment propose une approche complète pour exploiter le jeu de données lambda/hermes-agent-reasoning-traces, une collection structurée de traces de raisonnement issues de modèles d'agents IA. Le guide couvre quatre étapes distinctes : le chargement et l'inspection du dataset, la construction de parseurs pour extraire les composants clés (traces de réflexion, appels d'outils, réponses), l'analyse statistique des comportements (fréquence d'utilisation des outils, longueur des conversations, taux d'erreurs), et enfin la conversion du dataset dans un format compatible avec l'entraînement supervisé. Le dataset est disponible en plusieurs configurations, notamment "kimi" et "glm-5.1", correspondant à des architectures d'agents différentes, et peut être chargé via la bibliothèque Hugging Face datasets. Les outils utilisés incluent Python 3, pandas, matplotlib, seaborn, transformers, accelerate et trl. Comprendre comment un agent IA raisonne en interne avant d'agir est un enjeu clé pour quiconque cherche à améliorer, déboguer ou affiner ces systèmes. Ce tutoriel permet de séparer concrètement la "pensée" interne d'un modèle (blocs `) de ses actions externes (blocs ) et des retours qu'il reçoit (), grâce à des parseurs basés sur des expressions régulières. Cette granularité est précieuse pour les équipes qui développent des agents autonomes : elle permet de détecter des comportements anormaux, d'identifier des appels d'outils malformés, ou de repérer des patterns de raisonnement défaillants avant de lancer un cycle de fine-tuning. La dernière étape du guide, la préparation du dataset pour le supervised fine-tuning (SFT), rend les données directement exploitables avec des frameworks comme TRL de Hugging Face. Le dataset hermes-agent-reasoning-traces` s'inscrit dans un mouvement plus large de publication de données d'entraînement spécialisées pour les agents IA multi-tours, capables d'utiliser des outils externes. Avec l'essor des architectures de type "agentic" dans des produits comme les assistants à code, les agents de recherche ou les copilotes professionnels, la qualité des traces de raisonnement utilisées pour l'entraînement devient un levier différenciant. Des acteurs comme Lambda, Kimi (Moonshot AI) ou encore les équipes derrière GLM (Tsinghua/Zhipu AI) contribuent à cet écosystème de données ouvertes. La tendance va vers des modèles capables de justifier leurs décisions étape par étape, ce qui exige précisément le type d'infrastructure d'analyse décrite dans ce tutoriel. Les prochaines évolutions pourraient inclure des métriques automatisées de qualité du raisonnement ou des benchmarks standardisés sur ce type de traces.

💬 Ce dataset de traces de raisonnement, c'est du matériel brut pour quiconque entraîne ou débogue un agent en ce moment. La partie intéressante c'est moins le fine-tuning que l'analyse en amont : repérer les appels d'outils malformés ou les boucles de raisonnement avant de lancer un cycle d'entraînement, ça évite de brûler des GPU pour rien. Reste que les configs "kimi" et "glm-5.1" sont assez spécifiques, difficile de généraliser sans retravailler les parseurs de fond en comble.

LLMsTuto
1 source
Guide pratique : affiner un LLM avec TRL, du supervised fine-tuning au raisonnement DPO et GRPO
4MarkTechPost 

Guide pratique : affiner un LLM avec TRL, du supervised fine-tuning au raisonnement DPO et GRPO

Un guide complet consacré à l'entraînement post-initialisation des grands modèles de langage vient d'être publié, proposant une progression pédagogique couvrant quatre techniques clés : le réglage fin supervisé (SFT), la modélisation de récompense (RM), l'optimisation directe des préférences (DPO) et l'optimisation de politique par groupe relatif (GRPO). Le tutoriel s'appuie sur la bibliothèque TRL (Transformer Reinforcement Learning), développée et maintenue par Hugging Face, combinée à des outils comme PEFT et LoRA, qui permettent de réduire drastiquement la mémoire nécessaire. Point notable : l'ensemble du pipeline peut tourner sur un GPU T4 de Google Colab, soit environ 15 Go de VRAM, rendant ces techniques accessibles à quiconque dispose d'un compte Google. Le modèle de base utilisé est Qwen2.5-0.5B-Instruct, un modèle léger de 500 millions de paramètres développé par Alibaba, qui sert de point de départ à chacune des quatre étapes d'alignement. Ce guide se distingue par sa complétude : peu de tutoriels enchaînent l'intégralité du pipeline d'alignement, du SFT jusqu'au raisonnement par GRPO, avec du code fonctionnel et des explications progressives. Pour les équipes techniques cherchant à adapter un modèle open-weight à des usages métiers spécifiques, ou à reproduire les techniques d'alignement des grands laboratoires, ce type de ressource pratique est précieux. Le GRPO notamment, popularisé par DeepSeek-R1 en janvier 2025, est désormais intégré nativement dans TRL, ce qui permet d'entraîner des modèles à raisonner par étapes vérifiables sans les coûts prohibitifs d'un pipeline RLHF classique avec modèle de récompense séparé. L'alignement des LLMs s'est imposé comme l'un des sujets centraux de l'IA depuis qu'InstructGPT d'OpenAI a montré qu'un volume relativement faible de données de préférence pouvait radicalement améliorer le comportement d'un modèle. TRL est devenu la référence open source pour implémenter ces méthodes, avec des mises à jour qui intègrent régulièrement les dernières avancées de la recherche. La tendance est aujourd'hui aux approches qui n'exigent pas de modèle de récompense distinct, comme DPO et GRPO, car elles simplifient le pipeline tout en atteignant des résultats comparables. Ce contexte explique l'intérêt croissant pour le fine-tuning de modèles open-weight comme Qwen, Llama ou Mistral, que des startups et des équipes internes cherchent à spécialiser sans dépendre d'API propriétaires.

UEHuggingFace, entreprise française éditrice de la bibliothèque TRL au cœur de ce guide, positionne l'écosystème open source européen comme référence pour l'alignement des LLMs face aux pipelines propriétaires américains.

LLMsTuto
1 source