Aller au contenu principal
Amazon Polly introduit le streaming bidirectionnel pour la synthèse vocale en temps réel
OutilsAWS ML Blog2h

Amazon Polly introduit le streaming bidirectionnel pour la synthèse vocale en temps réel

1 source couvre ce sujet·Source originale ↗·

Amazon vient d'annoncer une nouvelle API de streaming bidirectionnel pour son service de synthèse vocale Amazon Polly, baptisée StartSpeechSynthesisStream. Contrairement aux approches traditionnelles, cette API permet d'envoyer du texte et de recevoir de l'audio simultanément, en flux continu sur une connexion HTTP/2 unique. Les tests de performance réalisés par Amazon portaient sur 7 045 caractères (970 mots) avec la voix Matthew et le moteur Generative en MP3 24 kHz, en simulant une génération de tokens à environ 30 ms par mot — soit les conditions réelles d'un grand modèle de langage en production. L'API accepte des fragments de texte au fil de l'eau via des TextEvent, retourne des chunks audio via des AudioEvent, et confirme la fin du flux avec un StreamClosedEvent.

Pour les applications d'IA conversationnelle, cette avancée supprime un goulot d'étranglement fondamental. Jusqu'ici, il fallait attendre que le LLM ait terminé de générer l'intégralité de sa réponse, puis envoyer ce texte complet au service TTS, puis attendre l'audio avant de lancer la lecture — trois étapes séquentielles qui s'ajoutaient les unes aux autres. Avec le streaming bidirectionnel, la synthèse vocale démarre dès les premiers tokens générés, ce qui réduit drastiquement la latence perçue par l'utilisateur final. Pour les assistants virtuels, les agents téléphoniques automatisés ou les interfaces vocales en temps réel, cela se traduit par des conversations nettement plus naturelles, sans les silences artificiels qui trahissent une architecture en pipeline.

Le lancement s'inscrit dans une course plus large à la latence dans l'écosystème de l'IA générative vocale, où des acteurs comme ElevenLabs, OpenAI (avec son API audio temps réel) et Google se disputent le marché des applications conversationnelles. AWS avait déjà un avantage avec Polly grâce au streaming audio sortant, mais l'entrée simultanée était jusqu'ici absente. La nouvelle API élimine également la complexité côté serveur : les développeurs n'ont plus besoin d'implémenter leur propre logique de découpage de texte en phrases, ni de gérer plusieurs appels API parallèles et le réassemblage audio qui en découlait. Une seule connexion persistante remplace cette infrastructure maison. Les prochaines étapes logiques concerneront probablement l'extension à davantage de voix et de langues avec le moteur Generative, ainsi que l'intégration native dans les frameworks d'agents AWS comme Bedrock.

À lire aussi

1The Information AI 

Apple prévoit d'ouvrir Siri à d'autres assistants IA

Apple prévoit d'ouvrir Siri à d'autres assistants d'intelligence artificielle tiers, selon Bloomberg. Cette évolution majeure sera annoncée en juin lors de la Worldwide Developers Conference (WWDC) 2026, dans le cadre d'une refonte en profondeur de l'assistant vocal d'Apple. L'intégration permettrait à des assistants comme ChatGPT d'OpenAI, Gemini de Google ou d'autres solutions IA de se connecter directement à Siri, offrant aux utilisateurs la possibilité de basculer vers ces outils sans quitter l'écosystème Apple. Ce changement représente un tournant stratégique considérable pour Apple, qui a longtemps maintenu Siri comme un système fermé. Pour les utilisateurs d'iPhone et d'iPad, cela signifie un accès direct aux modèles les plus puissants du marché depuis l'interface native d'iOS, sans friction. Pour les développeurs d'IA, c'est une opportunité d'atteindre des centaines de millions d'appareils Apple dans le monde. Cette ouverture pourrait également répondre aux critiques persistantes sur les lacunes de Siri face à des concurrents comme ChatGPT ou Claude. Cette décision intervient alors qu'Apple accuse un retard notable dans la course à l'IA générative. Apple Intelligence, lancé en 2024, a reçu des retours mitigés, et plusieurs fonctionnalités promises ont été reportées. En ouvrant son assistant à des partenaires extérieurs, Cupertino adopte une stratégie de plateforme plutôt que de tout développer en interne — une approche qui rappelle ce qu'Apple a fait avec l'App Store en 2008. Les modalités exactes de ces partenariats, notamment les conditions commerciales et les accès aux données, restent à préciser avant la WWDC.

UELes utilisateurs européens d'iPhone pourraient accéder directement à ChatGPT ou Gemini via Siri, une évolution qui pourrait attirer l'attention des régulateurs EU sur l'interopérabilité et les conditions de partage des données.

OutilsActu
1 source
201net 

Il n’y a pas que ChatGPT dans la vie : Apple préparerait un Siri compatible avec toutes les IA

Avec iOS 27, Apple préparerait une refonte majeure de Siri en lui permettant de dialoguer avec n'importe quel chatbot d'intelligence artificielle installé sur l'iPhone, et non plus uniquement ChatGPT. Selon les informations disponibles, cette nouvelle architecture transformerait Siri en véritable hub d'IA, capable de router les requêtes des utilisateurs vers le modèle de leur choix — qu'il s'agisse de Gemini, Claude, Mistral ou d'autres assistants à venir. Ce changement représente un virage stratégique considérable pour Apple, qui reconnaît implicitement que son assistant vocal natif ne peut rivaliser seul avec les grands modèles de langage du marché. Pour les utilisateurs, cela signifie une liberté de choix inédite sur iPhone : accéder à la puissance de n'importe quel LLM sans quitter l'écosystème Apple, simplement en ayant l'application correspondante installée. Cette évolution s'inscrit dans un contexte où Apple accuse un retard significatif en IA générative face à Google, Microsoft et OpenAI. Le partenariat avec OpenAI, annoncé en 2024 et intégré dès iOS 18, n'était qu'une première étape. En ouvrant Siri à toutes les IA tierces, Apple adopte une posture de plateforme plutôt que de compétiteur direct — une approche qui rappelle sa stratégie avec les applications tierces lors du lancement de l'App Store.

UELes utilisateurs européens d'iPhone pourraient bénéficier d'un accès facilité à des modèles comme Mistral directement via Siri, renforçant la visibilité des LLMs européens sur iOS.

OutilsOutil
1 source
3Le Monde Pixels 

Manus, une IA chinoise dernier cri prise dans la bataille technologique entre la Chine et les Etats-Unis

Manus, l'agent IA développé par la startup chinoise Butterfly Effect (filiale de Monica), a fait irruption sur la scène mondiale début mars 2025, déclenchant une vague d'enthousiasme sans précédent. En quelques jours, la liste d'attente pour accéder à la version bêta a dépassé un million de personnes, tandis que les démonstrations virales montraient l'agent accomplir de manière autonome des tâches complexes : recherche approfondie, rédaction de rapports, gestion de fichiers, navigation web. Contrairement aux chatbots classiques, Manus agit sans supervision humaine continue. L'émergence de Manus s'inscrit dans un contexte de compétition technologique féroce entre Pékin et Washington. Après le choc DeepSeek en janvier 2025, qui avait démontré qu'une IA chinoise pouvait rivaliser avec les meilleurs modèles américains à moindre coût, Manus confirme que la Chine n'entend pas rester en marge de la révolution des agents IA — un segment jugé stratégique par les deux puissances. Cette montée en puissance intervient alors que les États-Unis ont renforcé leurs restrictions sur l'exportation de puces vers la Chine. Nvidia, dont les GPU H100 sont au cœur du développement IA, se retrouve au centre de ces tensions. La capacité des équipes chinoises à produire des résultats compétitifs malgré ces contraintes matérielles soulève des questions sur l'efficacité réelle des sanctions américaines, et laisse présager une intensification de la rivalité technologique entre les deux blocs.

UELa rivalité sino-américaine sur les puces IA et l'émergence d'agents autonomes chinois compétitifs renforcent la pression sur l'Europe pour accélérer sa propre souveraineté technologique en matière d'IA.

OutilsOpinion
1 source
4Le Big Data 

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

OpenClaw, l'agent IA local et open source lancé fin 2025, a rapidement dépassé Linux et React sur GitHub pour atteindre plus de 330 000 étoiles, s'imposant comme l'un des projets les plus suivis de la plateforme. Contrairement aux chatbots classiques, OpenClaw agit directement sur la machine de l'utilisateur de manière autonome. Pour étendre ses capacités, la communauté a développé une marketplace d'extensions appelée ClawHub, proposant des milliers de modules baptisés Skills. Parmi les plus plébiscités : le Skill Obsidian, qui synchronise l'agent avec une base de notes locale en Markdown ; le module RAG (Retrieval-Augmented Generation) pour interroger des documents PDF et archives internes sans envoyer de données vers des serveurs externes ; le Skill GOG pour connecter l'agent à Gmail, Google Calendar et Drive via OAuth ; et enfin le Skill GitHub, qui s'appuie sur le CLI officiel gh pour gérer le cycle de vie complet d'un dépôt de code. Ce qui distingue OpenClaw des assistants IA classiques, c'est précisément cette capacité à passer de la consultation à l'exécution concrète. Un utilisateur peut demander à l'agent de trier sa boîte mail, rédiger une note structurée dans Obsidian, ou créer une pull request sur GitHub — le tout sans ouvrir un seul onglet de navigateur. Le module RAG est particulièrement stratégique pour les entreprises : il permet d'interroger des gigaoctets de documentation interne sensible en restant entièrement en local, éliminant le risque de fuite de données vers des API tierces. Pour les développeurs, le Skill GitHub transforme l'agent en ingénieur DevOps autonome capable de gérer des workflows complexes sans supervision constante. OpenClaw s'inscrit dans une tendance de fond : la montée des agents IA locaux, souverains et extensibles, portée par la communauté open source. Son ascension fulgurante rappelle celle de projets comme Docker ou Kubernetes en leur temps — des outils qui ont redéfini les pratiques professionnelles en quelques mois. La marketplace ClawHub joue un rôle central dans cet écosystème, en reproduisant le modèle de distribution des extensions de VS Code ou des plugins npm, mais appliqué à l'automatisation par IA. Les prochains enjeux tournent autour de la sécurité des Skills tiers, de la standardisation des interfaces entre modules, et de l'émergence d'agents capables de chaîner plusieurs Skills de manière fiable sur des tâches longues — un défi technique que la communauté commence à peine à adresser.

UELe module RAG local d'OpenClaw répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux entreprises européennes de traiter des documents internes sensibles sans transférer de données vers des serveurs tiers.

OutilsOutil
1 source