
Inworld AI lance Realtime TTS-2 : un modèle vocal en boucle fermée qui s'adapte à votre façon de parler
Inworld AI a lancé en mai 2026 Realtime TTS-2, un nouveau modèle de synthèse vocale disponible en préversion de recherche via son Inworld API et son Inworld Realtime API. Ce modèle représente une rupture architecturale significative par rapport aux systèmes de synthèse vocale conventionnels : là où la plupart des moteurs TTS (text-to-speech) reçoivent du texte et produisent de l'audio de manière stateless, TTS-2 fonctionne en boucle fermée. Il ingère l'audio réel des échanges précédents, pas seulement leur transcription, ce qui lui permet de percevoir le ton, le rythme et l'état émotionnel de l'interlocuteur. Le modèle propose quatre capacités principales : une direction vocale en langage naturel via des balises inline comme [speak sadly, as if something bad just happened], des marqueurs non-verbaux injectables ([laugh], [sigh], [cough]), une préservation de l'identité vocale sur plus de 100 langues y compris en cas de changement de langue en mid-phrase, et une conception de voix à partir d'une description textuelle sans audio de référence. Trois modes de stabilité sont disponibles : Expressif pour les agents conversationnels grand public, Équilibré pour la majorité des déploiements, et Stable pour les environnements professionnels ou les serveurs vocaux interactifs où la dérive de tonalité est inacceptable.
L'enjeu concret est de rendre les agents vocaux IA crédibles dans des situations à forte charge émotionnelle, comme le support client en soirée ou les interfaces de santé mentale. En entendant le vrai signal audio plutôt qu'en lisant une retranscription, le modèle saisit si un "okay, fine" est soulagé, résigné ou sarcastique, et adapte sa réponse en conséquence. Le contexte audio se propage automatiquement d'un tour à l'autre dans une session Realtime sans que les développeurs aient à gérer manuellement des champs prior_audio. TTS-2 génère aussi des disfluences naturelles, "euh", "hm", auto-corrections, pauses en milieu de phrase, calibrées selon le profil du locuteur, ce qui renforce la perception d'un interlocuteur attentif plutôt que d'un système en dysfonctionnement.
Cette annonce s'inscrit dans une compétition intense autour de la voix conversationnelle IA, un segment en pleine expansion porté par les agents d'assistance, les compagnons virtuels et l'automatisation du support client. Inworld AI, jusqu'ici principalement connue pour ses personnages IA dans les jeux vidéo, repositionne ici sa technologie vocale vers un marché enterprise plus large. La plupart des acteurs dominants du TTS, comme ElevenLabs ou les offres vocales d'OpenAI, traitent chaque génération comme un appel indépendant sans mémoire auditive des tours précédents. TTS-2 parie que la continuité émotionnelle entre les tours est le vrai différenciateur dans les cas d'usage à forte intensité humaine. La sortie en research preview suggère que des ajustements restent en cours, notamment pour les langues de longue traîne, mais l'API est déjà accessible aux développeurs pour intégration.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




