
Les agents uniques surpassent souvent les systèmes multi-agents : êtes-vous victime de cette complexité inutile ?
Des chercheurs de l'université de Stanford ont publié une étude qui remet en cause l'un des dogmes les plus répandus dans le développement IA en entreprise : l'idée que les systèmes multi-agents seraient intrinsèquement supérieurs aux architectures à agent unique pour les tâches complexes. Menée par Dat Tran et Douwe Kiela, la recherche a soumis les deux types d'architectures à des tâches de raisonnement en chaîne ("multi-hop reasoning"), c'est-à-dire des problèmes nécessitant de relier plusieurs informations disparates pour parvenir à une conclusion. Le protocole clé : imposer un budget identique de "tokens de réflexion", les tokens utilisés exclusivement pour le raisonnement intermédiaire, hors prompt initial et réponse finale. Résultat : dans la majorité des cas, un agent unique dispose du même budget surpasse ou égale un système multi-agents.
L'enjeu est considérable pour les équipes d'ingénierie qui investissent massivement dans des architectures complexes. Les systèmes multi-agents, qu'il s'agisse d'agents planificateurs, de systèmes en débat ou d'essaims de modèles, génèrent des traces de raisonnement plus longues et multiplient les appels LLM, consommant mécaniquement davantage de ressources. Le problème soulevé par Stanford est que la plupart des comparaisons publiées jusqu'ici n'étaient pas à budget égal : les gains affichés par le multi-agent reflétaient souvent une simple dépense de calcul supplémentaire, et non un avantage architectural réel. Autrement dit, les entreprises pourraient payer une "taxe essaim" sans bénéfice net. La seule situation où le multi-agent conserve un avantage légitime est celle où le contexte d'un agent unique devient trop long ou corrompu, atteignant une limite physique.
Pour aller plus loin, les chercheurs ont introduit une technique baptisée SAS-L (single-agent system with longer thinking), conçue pour corriger un comportement fréquent : les agents uniques abandonnent parfois leur raisonnement interne prématurément, laissant du budget de calcul inexploité. La solution proposée est purement structurelle, sans surcoût architectural : reformuler le prompt pour encourager explicitement le modèle à dépenser son budget disponible en analyse pré-réponse, en identifiant les ambiguïtés et les hypothèses intermédiaires avant de conclure. Cette approche s'inscrit dans une tendance de fond qui pousse le domaine à reconsidérer la complexité comme valeur en soi. Alors que les frameworks multi-agents prolifèrent et que les coûts d'inférence restent élevés, Stanford offre un argument empirique solide pour privilégier la simplicité, et ne recourir à l'orchestration multi-agents qu'une fois le plafond de l'agent unique véritablement atteint.
Les équipes d'ingénierie en France et en Europe qui déploient des systèmes multi-agents peuvent directement réduire leurs coûts d'inférence en simplifiant leurs architectures, en s'appuyant sur les conclusions empiriques de cette étude pour justifier ce choix en interne.




