Aller au contenu principal
Elle a quitté OpenAI et créé une IA qui discute (enfin) comme un humain
LLMsLe Big Data2h

Elle a quitté OpenAI et créé une IA qui discute (enfin) comme un humain

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Mira Murati, ancienne directrice technique d'OpenAI, a présenté le 11 mai 2026 le premier modèle de sa société Thinking Machines : TML-Interaction-Small. Quatorze mois après son départ fracassant d'OpenAI, elle dévoile une IA vocale fondée sur un principe dit "full-duplex" : deux interlocuteurs peuvent parler en même temps, comme lors d'un vrai appel téléphonique. Techniquement, le système repose sur deux modèles distincts : le premier gère l'interaction en temps réel, voix, interruptions et rythme de la discussion, tandis que le second, plus lourd, traite en arrière-plan le raisonnement avancé, les recherches web et les appels d'outils externes. Les échanges sont découpés en micro-tours de 200 millisecondes, ce qui permet à l'IA de continuer à écouter même pendant qu'elle répond. La latence mesurée atteint 0,40 seconde, contre 0,57 pour Google Gemini 3.1 Flash Live et 1,18 seconde pour GPT-realtime-2.0 en mode minimal. Sur le benchmark FD-bench v1.5, conçu pour évaluer la fluidité des conversations vocales, TML-Interaction-Small obtient 77,8 points face aux 46,8 de GPT-realtime-2.0.

Ces performances marquent un vrai saut qualitatif dans l'interaction humain-machine. Une conversation humaine fluide s'articule autour de 200 à 250 millisecondes entre deux prises de parole : l'écart avec les assistants vocaux actuels se réduit sensiblement. Pour les utilisateurs, cela signifie la fin des silences gênants et des tours de parole rigides qui rendent les assistants vocaux pénibles à utiliser sur la durée. Pour l'industrie, cela ouvre des cas d'usage concrets dans les domaines médical, industriel ou scientifique, notamment grâce à une capacité que les grands modèles de langage classiques ne maîtrisent pas : la gestion du temps. TML-Interaction-Small peut comprendre et exécuter une instruction telle que "rappelle-moi de vérifier la température toutes les quatre minutes", là où des modèles comme Gemini se tromperaient encore régulièrement sur des notions temporelles simples.

Le lancement de Thinking Machines s'inscrit dans un moment charnière pour l'industrie de l'IA vocale. Mira Murati avait quitté OpenAI en septembre 2024 dans un contexte de turbulences internes, après avoir joué un rôle central dans le développement de GPT-4 et de ChatGPT. Sa société a levé des fonds considérables avant même d'annoncer un produit, ce qui témoigne de la confiance des investisseurs dans sa capacité à livrer. En proposant une architecture radicalement différente des modèles conversationnels dominants, Thinking Machines cherche à redéfinir ce que signifie "parler avec une IA". OpenAI, Google et d'autres acteurs travaillent également sur des interfaces vocales temps réel, mais TML-Interaction-Small constitue, pour l'heure, la démonstration la plus convaincante qu'une conversation naturelle avec une machine n'est plus un horizon lointain.

💬 Le point de vue du dev

Les chiffres de latence sont les premiers depuis longtemps à ne pas me faire lever les yeux au ciel. 0,40 seconde contre 1,18 pour GPT-realtime, sur un benchmark qui mesure ce qui compte vraiment, la fluidité réelle, pas la vitesse de réponse brute. L'architecture deux modèles (un pour le flux en temps réel, un pour le raisonnement lourd en arrière-plan) c'est le bon design, reste à voir si ça tient à l'échelle.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »
1Le Big Data 

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »

Brad Lightcap, directeur des opérations d'OpenAI, a déclaré début avril 2026 que les modèles d'IA actuels, y compris GPT-5.4, paraîtront dépassés d'ici la fin de l'année. Cette affirmation intervient alors que GPT-5.4, lancé il y a quelques jours à peine, affiche déjà un rythme de revenus annualisé d'un milliard de dollars et traite environ 5 000 milliards de tokens par jour. En l'espace de quelques semaines, OpenAI a enchaîné les versions GPT-5.1, 5.2, 5.3 puis 5.4, chacune apportant des gains significatifs sans attendre les longs cycles de recherche et de déploiement qui caractérisaient autrefois le secteur. GPT-5.4 s'est imposé comme le moteur principal des API d'OpenAI presque instantanément, et intègre une capacité nouvelle : le modèle décide lui-même s'il doit raisonner en profondeur ou répondre directement, sans que l'utilisateur ait à choisir un mode particulier. Des améliorations concrètes sont déjà visibles en écriture, en génération de code et dans des secteurs exigeants comme la santé. Ce rythme d'itération inédit transforme en profondeur la manière dont les entreprises et les développeurs adoptent l'IA. Un modèle sorti depuis quelques jours peut déjà devenir dominant à l'échelle mondiale, ce qui compresse les cycles d'adoption et rend obsolètes les intégrations à peine finalisées. Pour les équipes techniques qui s'appuient sur les API d'OpenAI, cela signifie une mise à jour permanente des pratiques et des outils. Le phénomène fonctionne comme un effet boule de neige : plus un modèle est performant, plus il est adopté dans des usages critiques comme le développement logiciel ou l'analyse de données, ce qui génère des revenus permettant de financer le cycle suivant encore plus vite. La barre de ce qui constitue un outil "avancé" se déplace en permanence, rendant les standards d'aujourd'hui potentiellement minimaux demain. Cette dynamique s'inscrit dans une évolution structurelle du secteur. Pendant des années, les progrès en IA se mesuraient en recherche académique publiée et en grands modèles sortis annuellement. Depuis GPT-4, puis o1, puis la série GPT-5, OpenAI a progressivement réduit la durée des cycles d'entraînement et de déploiement. La déclaration de Lightcap marque une accélération supplémentaire : les améliorations ne sont plus linéaires mais exponentielles, chaque génération servant de base accélérée à la suivante. Si cette projection se confirme, les concurrents — Google DeepMind, Anthropic, Meta — devront soutenir un rythme similaire pour rester compétitifs, ce qui soulève des questions sur les ressources de calcul nécessaires et sur la capacité des organisations à intégrer des outils qui évoluent plus vite qu'elles ne peuvent se les approprier.

UELes équipes techniques européennes utilisant les API OpenAI doivent adapter en permanence leurs intégrations face à un rythme d'itération qui rend obsolètes les outils à peine déployés.

LLMsOpinion
1 source
GPT-Realtime-2 : l’IA vocale d’OpenAI pense pendant qu’elle vous parle
2Le Big Data 

GPT-Realtime-2 : l’IA vocale d’OpenAI pense pendant qu’elle vous parle

OpenAI a annoncé le 7 mai 2026 le lancement de GPT-Realtime-2, son nouveau modèle vocal disponible via l'API Realtime. Ce modèle intègre directement les capacités de raisonnement de GPT-5, ce qui le distingue fondamentalement de ses prédécesseurs. Concrètement, il peut écouter, analyser des requêtes complexes, appeler des outils externes et gérer les interruptions sans perdre le fil d'une conversation. Sa fenêtre de contexte passe de 32 000 à 128 000 tokens, lui permettant de suivre des échanges prolongés sans oublier ce qui a été dit plusieurs minutes auparavant. OpenAI lance simultanément deux modèles complémentaires : GPT-Realtime-Translate, capable de traduire en temps réel des conversations dans plus de 70 langues d'entrée vers 13 langues de sortie, et GPT-Realtime-Whisper, dédié à la transcription ultra-rapide avec génération automatique de sous-titres et de notes de réunion. Deutsche Telekom a déjà intégré GPT-Realtime-Translate dans ses solutions de support vocal multilingue. Ce que change GPT-Realtime-2, c'est la nature même de l'interaction vocale avec une IA. Jusqu'ici, les assistants vocaux répondaient vite mais sans véritable compréhension du contexte. Ce nouveau modèle introduit un comportement plus humain : lorsqu'il traite une requête complexe, il verbalise son activité avec des phrases comme "Laissez-moi vérifier cela" ou "Je regarde votre calendrier", rendant les temps de traitement naturels plutôt qu'anxiogènes. Il est également capable de reconnaître ses propres difficultés au lieu de rester silencieux. Pour les entreprises qui déploient des agents vocaux en support client, en assistance médicale ou en gestion de réunions, ce niveau de robustesse change radicalement ce que l'on peut exiger de ces systèmes. Cette annonce s'inscrit dans une course accélérée à la voix comme interface centrale entre humains et logiciels. OpenAI positionne explicitement GPT-Realtime-2 comme un concurrent direct aux assistants vocaux établis de Google, Apple et Amazon, dont les limites en matière de raisonnement sont bien connues. La stratégie d'OpenAI est claire : en ouvrant ces capacités via API, la société mise sur les développeurs tiers pour construire la prochaine génération d'agents conversationnels. L'enjeu dépasse le simple gadget vocal : si parler devient plus efficace que cliquer, c'est toute la manière dont les professionnels interagissent avec leurs outils qui se trouve redéfinie. Les prochains mois diront si les usages en entreprise confirment cette promesse à grande échelle.

UEDeutsche Telekom a déjà intégré GPT-Realtime-Translate dans ses solutions de support vocal multilingue, ouvrant la voie à des agents vocaux multilingues pour les entreprises et opérateurs télécoms européens.

💬 Ce qui change vraiment ici, c'est pas la vitesse (on était déjà pas mal) mais le raisonnement en temps réel, embarqué directement dans le vocal. Le "Laissez-moi vérifier ça" plutôt que le silence mort pendant le traitement, c'est un détail UX qui va tout changer pour les équipes qui déploient des agents vocaux en support ou en médical. Sur le papier c'est exactement ce qui manquait, bon, reste à voir si ça tient à 10 000 appels simultanés.

LLMsOpinion
1 source
OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute
3Le Big Data 

OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute

Le 22 avril 2026, des utilisateurs de Codex, l'environnement de développement assisté d'OpenAI, ont brièvement aperçu dans un sélecteur de modèles interne des noms inconnus : GPT-5.5, oai-2.1, et plusieurs variantes expérimentales non annoncées. L'accès a disparu en quelques minutes, mais les captures d'écran avaient déjà circulé sur X et dans les forums de développeurs. La fuite s'est produite dans un contexte particulier : OpenAI menait simultanément un test élargi dans Codex, confirmé par Rohan Varma, ingénieur de l'entreprise, touchant environ 100 % des utilisateurs, tous abonnements confondus, gratuits et payants. Sam Altman, PDG d'OpenAI, n'a pas démenti les spéculations autour d'un lancement imminent. Interrogé par un utilisateur évoquant une sortie possible dès le jeudi suivant, il a répondu par un simple emoji, sans démentir ni confirmer. Au-delà de l'anecdote, les retours techniques des développeurs ayant eu accès au modèle pendant ce court intervalle sont frappants. Plusieurs signalent une résolution de bugs front-end en quelques minutes là où GPT-4o nécessitait plusieurs heures. D'autres notent une meilleure cohérence dans la génération de code HTML et Tailwind CSS. Si ces observations restent parcellaires et non vérifiables à grande échelle, elles alimentent l'idée qu'OpenAI prépare un saut qualitatif significatif, pas seulement une mise à jour incrémentale. Pour l'industrie du développement logiciel assisté par IA, un modèle nettement plus rapide et fiable sur les tâches de code changerait concrètement les flux de travail quotidiens de millions de développeurs. La mise à disposition sur tous les plans tarifaires, si elle se confirme, représenterait également un changement de stratégie commerciale notable par rapport à la segmentation actuelle. Cette fuite s'inscrit dans une séquence d'annonces très dense côté OpenAI : ChatGPT Images 2.0 venait tout juste d'être déployé, renforçant la génération d'images précises directement dans le chat. Le rythme de publication soutenu d'OpenAI répond à une pression concurrentielle extrême. Anthropic a simultanément modifié son offre Claude Code en limitant l'accès pour certains abonnés Pro, tandis que Google, Meta et Mistral multiplient eux aussi les sorties. Dans ce contexte de course aux annonces, la communication ambiguë d'Altman, entre silence et émoji, est devenue une méthode rodée pour entretenir l'attention sans s'engager officiellement. GPT-5.5 pourrait être un modèle intermédiaire entre GPT-5 et une future version majeure, ou simplement un nom de test interne jamais destiné au public. La réponse pourrait venir dans les jours suivants, si OpenAI tient le calendrier informel que son PDG semble avoir laissé entrevoir.

UELa cadence de sorties accélérée d'OpenAI accentue la pression concurrentielle sur les acteurs européens, en particulier Mistral, cité dans l'article comme rival direct dans la course aux annonces de modèles.

LLMsOpinion
1 source
4AI News 

Meta dispose d'un modèle IA compétitif mais perd son identité open source

Meta a lancé Muse Spark le 8 avril 2026, son premier grand modèle d'intelligence artificielle depuis un an et la première réalisation de ses nouveaux Meta Superintelligence Labs, dirigés par Alexandr Wang, débauché de Scale AI. Ce modèle multimodal natif intègre le raisonnement par chaîne de pensée visuelle, l'utilisation d'outils et l'orchestration multi-agents. Il alimente désormais Meta AI, accessible à plus de trois milliards d'utilisateurs sur les applications du groupe. Sur l'indice AI Index v4.0, Muse Spark obtient un score de 52, se classant quatrième derrière Gemini 3.1 Pro, GPT-5.4 et Claude Opus 4.6. Sa véritable singularité apparaît sur HealthBench Hard, un benchmark de questions médicales ouvertes : il y atteint 42,8 points, loin devant Gemini 3.1 Pro (20,6) et Grok 4.2 (20,3), résultat d'une collaboration avec plus de 1 000 médecins pour constituer ses données d'entraînement. Meta affirme également que le modèle atteint les performances de ses prédécesseurs pour un coût de calcul dix fois inférieur. Surtout, Muse Spark est entièrement propriétaire : pas de poids téléchargeables, pas d'accès libre, uniquement une préversion privée via API pour des partenaires sélectionnés. Ce virage est significatif pour l'ensemble de l'industrie. L'écosystème Llama avait atteint 1,2 milliard de téléchargements début 2026, soit environ un million par jour, faisant de Meta le moteur principal du mouvement open-source en IA. En choisissant de fermer Muse Spark, Meta retire aux développeurs indépendants, aux startups et aux chercheurs la capacité de construire sur sa technologie de pointe. À l'échelle de trois milliards d'utilisateurs quotidiens, la réduction des coûts de calcul change également les équilibres économiques du déploiement d'IA massive. La domination sur HealthBench ouvre en outre une perspective commerciale majeure dans un secteur où la précision médicale est un avantage concurrentiel direct. Ce changement de cap intervient après une année difficile pour Meta en matière d'IA. Le lancement de Llama 4 avait été terni par des accusations de sur-promesses non tenues, entamant la crédibilité du groupe auprès de la communauté des développeurs. En investissant 14,3 milliards de dollars et en reconstruisant intégralement son infrastructure, son architecture et ses pipelines de données en neuf mois, Meta a manifestement décidé de privilégier la performance sur l'ouverture. Wang a promis que des modèles plus grands sont en développement et que des versions open-source suivront, sans préciser d'échéance. Une partie de la communauté y voit un pivot stratégique inévitable après les déceptions de Llama 4 ; d'autres estiment que Meta a simplement attendu d'avoir quelque chose qui vaut la peine d'être protégé avant de fermer les portes.

UELes développeurs et startups européens qui construisaient sur l'écosystème Llama (1,2 milliard de téléchargements) perdent l'accès à la technologie de pointe de Meta, les forçant à réévaluer leurs stratégies d'IA et à se tourner vers des alternatives open-source moins performantes ou des API propriétaires payantes.

💬 Llama atteint 1,2 milliard de téléchargements, et c'est pile à ce moment-là que Meta décide de tout fermer. Le score médical est réel (42 points contre 20 pour Gemini, ça ne s'invente pas), mais des millions de devs qui avaient bâti sur Llama vont devoir réévaluer toute leur stack. Wang promet de l'open source "plus tard", bon.

LLMsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour