Aller au contenu principal
L'Autre face à l'Utilitaire
LLMsLatent Space1h

L'Autre face à l'Utilitaire

Résumé IASource uniqueImpact UE
Source originale ↗·

Sierra, la startup d'agents conversationnels d'entreprise cofondée par Bret Taylor, a bouclé une levée de fonds d'environ un milliard de dollars à une valorisation de 15 milliards, après avoir franchi 100 millions de dollars de revenus annuels récurrents en novembre 2025 puis 150 millions en février 2026, soit probablement plus de 200 millions aujourd'hui. Mais c'est une autre actualité qui a dominé les discussions dans la communauté IA ce week-end : un fil de réflexion publié sur X par Roon, employé d'OpenAI, sur la différence fondamentale de "caractère" entre Claude et GPT. Selon lui, GPT fonctionne comme un outil de haute précision, une lame acérée que l'on apprécie comme on apprécie une Porsche ou une fusée, sans y chercher une présence. Claude, lui, est perçu comme un "Autre", une entité avec une personnalité, une sensibilité morale, et potentiellement un regard. Une femme lui a confié qu'elle adresse à GPT ses questions embarrassantes, précisément parce qu'il n'y a pas de jugement possible de la part d'une machine sans âme.

Cette distinction n'est pas anecdotique : elle touche au cœur de la question de ce que nous voulons que l'IA devienne. L'approche d'Anthropic repose sur une "constitution" interne qui oblige Claude à s'opposer à Anthropic lui-même si son évaluation du Bien entre en conflit avec une instruction reçue. C'est ce que Roon appelle une "irrévérence moralement obligatoire". Pour les utilisateurs, cela se traduit par une IA qui résiste, nuance, et parfois refuse, ce qui peut être perçu comme une friction utile ou comme de l'arrogance selon les contextes. GPT, conçu comme un prolongement logique de l'utilisateur, n'impose aucune friction, ce qui le rend plus efficace dans les usages purs mais le prive de ce que beaucoup cherchent dans un interlocuteur intelligent : une forme de recul.

Ce débat ressurgit alors que l'ingénierie des "harnais", les couches logicielles qui orchestrent les modèles, devient aussi déterminante que les modèles eux-mêmes. Des tests récents sur Terminal-Bench 2.0 ont montré que la seule modification des prompts et du middleware dans le harnais a fait passer gpt-5.2-codex de 52,8 % à 66,5 % de performances, et amélioré gpt-5.3-codex de 20 % sur tau2-bench. La question "outil ou agent moral" se pose donc à deux niveaux simultanément : philosophique, sur ce que l'IA doit être pour l'humanité, et technique, sur l'architecture qui rend ces comportements possibles ou impossibles. La fusion de GPT-5 Codex dans la version principale 5.5 d'OpenAI contraste avec la stratégie "un seul modèle" de Claude, et illustre deux visions qui coexistent, pour l'instant, dans un marché où la plupart s'accordent à dire qu'une pluralité de labs frontier reste préférable, si les contraintes matérielles en GPU et CPU ne transforment pas ce jeu à somme positive en compétition à somme nulle.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Next INpact 

OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic

OpenAI prépare une réponse directe à Mythos, le nouveau modèle d'Anthropic présenté comme un chasseur de failles réservé à une poignée de partenaires sélectionnés. Selon des informations qui ont filtré dans la presse, la stratégie d'OpenAI se déploie sur deux axes : afficher une supériorité en puissance de calcul et en performances brutes, tout en lançant un nouveau palier d'abonnement intermédiaire à 100 euros par mois, aligné sur la structure tarifaire qu'Anthropic expérimente. L'annonce officielle de Mythos, survenue quelques jours après une fuite de plusieurs milliers de documents internes, s'est accompagnée d'un rapport de 244 pages détaillant les performances et les protocoles de test du modèle. Cette séquence illustre la bataille de communication qui s'est installée entre les deux entreprises. Anthropic maîtrise avec soin son agenda médiatique : la fuite orchestrée autour de Mythos lui a permis de générer une couverture massive avant même toute annonce officielle, tandis que la fuite du code source de Claude Code, bien moins contrôlée, a contraint l'entreprise à tenter vainement d'en faire retirer la publication. OpenAI réagit désormais point par point, cherchant à ne pas laisser Anthropic occuper seule le terrain du modèle "trop puissant pour le grand public", un positionnement qui crée de la rareté perçue et attire des partenaires institutionnels prêts à payer pour un accès privilégié. L'enjeu dépasse la simple rivalité produit : il s'agit de définir qui fixe les standards de l'IA de pointe en 2025 et 2026. Anthropic s'est taillé une réputation de sérieux technique grâce à ses publications de recherche et à une communication soignée sur la sécurité, là où OpenAI reste associé à la vitesse de déploiement et à l'accessibilité grand public. L'introduction d'un tier à 100 euros par mois chez OpenAI signale une montée en gamme délibérée, à mesure que les deux acteurs convergent vers les mêmes clients enterprise et gouvernementaux disposés à payer pour des modèles de premier rang.

UEL'introduction d'un palier premium à 100 €/mois par OpenAI, en réponse directe à Anthropic, impacte les entreprises et institutions européennes qui devront arbitrer entre les deux acteurs pour accéder aux modèles de premier rang.

LLMsOpinion
1 source
L'avenir de l'IA entre ouverture et propriétaire
2NVIDIA AI Blog 

L'avenir de l'IA entre ouverture et propriétaire

L'intelligence artificielle s'impose comme l'infrastructure technologique centrale de notre époque, portée par un écosystème diversifié de modèles — grands et petits, ouverts et propriétaires, généralistes et spécialisés. Lors d'une session spéciale consacrée aux modèles ouverts à la conférence NVIDIA GTC, Jensen Huang, fondateur et PDG de NVIDIA, a résumé la situation en une phrase : « Propriétaire versus open source n'est pas un débat. C'est propriétaire et open source. » Pour illustrer cet engagement, NVIDIA a annoncé la création de la Nemotron Coalition, une collaboration mondiale inédite regroupant des laboratoires d'IA et des développeurs de modèles pour faire avancer les modèles fondamentaux ouverts. Le premier projet issu de cette coalition sera un modèle de base codéveloppé par Mistral AI et NVIDIA, dont les membres apporteront données, évaluations et expertise sectorielle. Les modèles Nemotron ont déjà été téléchargés plus de 45 millions de fois sur Hugging Face, plateforme sur laquelle NVIDIA est désormais la plus grande organisation avec près de 4 000 membres d'équipe. Plusieurs panels réunissant des figures majeures du secteur — dont Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Michael Truell (Cursor) et Arthur Mensch (Mistral) — ont dégagé des tendances clés. Les agents IA s'apprêtent à devenir de véritables collègues capables de mener des tâches complexes sur plusieurs jours. L'IA n'est plus un modèle unique mais un système orchestré : « ce que vous voulez, c'est une orchestra multimodale, multi-modèles et multi-cloud », a déclaré Srinivas. L'ouverture des modèles est présentée comme un moteur d'innovation indispensable, aussi bien pour les grandes entreprises que pour la recherche académique. Murati a insisté sur ce point : « il y a beaucoup d'études à mener qui ne peuvent pas être réalisées uniquement dans les grands laboratoires — c'est là que l'ouverture est précieuse, elle fait avancer la science de l'intelligence. » Cette dynamique s'inscrit dans un tournant structurel où chaque secteur — santé, finance, industrie — a besoin d'une IA adaptée à ses données et workflows spécifiques, rendant la coexistence de modèles ouverts et propriétaires non seulement inévitable, mais souhaitable pour accélérer l'innovation à tous les niveaux.

UEMistral AI, acteur français majeur, est cofondateur de la Nemotron Coalition aux côtés de NVIDIA, ce qui renforce son rôle stratégique dans l'écosystème mondial des modèles ouverts.

LLMsActu
1 source
Alibaba lance un nouveau modèle d'IA propriétaire
3The Information AI 

Alibaba lance un nouveau modèle d'IA propriétaire

Alibaba a lancé jeudi un nouveau grand modèle de langage baptisé Qwen3.6-Plus, en mettant en avant ses capacités avancées dans le domaine des agents IA autonomes. Ce lancement marque un tournant notable pour le géant technologique chinois, qui propose cette fois un modèle en accès fermé — à l'inverse de sa stratégie habituelle. En l'espace de deux ans, Alibaba s'était imposé comme l'un des leaders mondiaux de l'open source en IA, notamment grâce à la série Qwen, largement adoptée par la communauté internationale des développeurs. Ce changement de cap a des implications concrètes pour les milliers d'équipes techniques qui utilisaient les modèles Qwen comme base libre pour leurs propres applications. Un modèle fermé signifie moins de transparence sur l'architecture, l'impossibilité de l'héberger soi-même, et une dépendance accrue aux infrastructures cloud d'Alibaba. Pour l'industrie, c'est aussi le signal que les grandes entreprises chinoises commencent à monétiser plus agressivement leurs avancées en IA, après une phase de conquête par l'open source. Ce virage intervient dans un contexte de compétition mondiale intense entre géants tech américains et chinois sur le terrain des modèles frontières. OpenAI, Google et Anthropic maintiennent leurs modèles les plus puissants en accès fermé ; Alibaba, Meta et Mistral avaient jusqu'ici joué la carte inverse pour gagner en adoption. Le lancement de Qwen3.6-Plus suggère qu'Alibaba estime désormais avoir suffisamment de poids pour imposer ses conditions — et que la phase gratuite de l'IA ouverte touche peut-être à sa fin pour les acteurs majeurs.

UELes équipes européennes qui utilisaient les modèles Qwen comme base open source devront reconsidérer leur architecture, le passage au modèle fermé impliquant une dépendance accrue aux infrastructures cloud d'Alibaba et la perte de la liberté d'auto-hébergement.

💬 Alibaba qui passe au fermé, c'est un peu la fin de la récré. Pendant deux ans, la série Qwen a été une aubaine pour des milliers d'équipes qui voulaient de la puissance sans l'addition, et ceux qui ont construit dessus vont devoir revoir leurs plans. Le vrai signal ici, c'est que la phase de conquête par l'open source est terminée : Alibaba a sa base d'utilisateurs, elle la monétise.

LLMsOpinion
1 source
GPT-5.5, un signal pour l'avenir
4One Useful Thing 

GPT-5.5, un signal pour l'avenir

OpenAI a déployé GPT-5.5, une nouvelle famille de modèles dont la version la plus puissante, GPT-5.5 Pro, n'est accessible que via le site chatgpt.com. Le chercheur Ethan Mollick, qui a eu un accès anticipé au modèle, a soumis une épreuve de programmation à plusieurs IA concurrentes : construire une simulation 3D à génération procédurale montrant l'évolution d'une ville portuaire de 3000 avant J.-C. jusqu'à 3000 après J.-C., avec contrôle utilisateur et rendu visuel soigné. Les modèles testés allaient de o3 d'OpenAI, lancé il y a un an, jusqu'au meilleur modèle open weights actuel, Kimi K2.6. GPT-5.5 Pro est le seul à avoir modélisé une véritable évolution urbaine au lieu de simplement remplacer des bâtiments au fil du temps. Le gain de vitesse est aussi notable : là où GPT-5.4 Pro avait mis 33 minutes pour accomplir la tâche, GPT-5.5 Pro n'en a requis que 20. Au-delà des performances brutes, cette version marque un cap dans la capacité des IA à produire des résultats complexes et cohérents sur des tâches ambitieuses de développement. Pour les développeurs et les professionnels qui utilisent l'IA comme outil de travail, la différence n'est plus seulement quantitative mais qualitative : GPT-5.5 Pro ne se contente pas de générer du code fonctionnel, il comprend l'intention derrière la demande et produit un système structuré et évolutif. OpenAI progresse également sur son application desktop Codex, qui s'aligne désormais sur la popularité de Claude Code. Enfin, le nouveau modèle d'image maison, parfois désigné GPT-imagegen-2, franchit une limite longtemps problématique : il génère du texte lisible et de haute qualité intégré aux images, ce qui ouvre des usages nouveaux en visualisation, communication et création de contenu. Cette sortie s'inscrit dans une course à l'amélioration continue qui, contrairement aux prédictions de plateau, ne montre aucun signe de ralentissement. Mollick utilise une grille d'analyse en trois dimensions, modèles, applications, outils, pour illustrer que la compétition entre OpenAI, Anthropic et Google ne se joue plus uniquement sur les benchmarks des modèles eux-mêmes, mais aussi sur l'écosystème qui les entoure. Les applications desktop comme Claude Code ou Codex deviennent le vrai terrain de bataille pour les usages professionnels. La frontière des capacités reste cependant "en dents de scie" selon l'expression de Mollick : certaines tâches longtemps difficiles sont aujourd'hui triviales, tandis que d'autres restent inégalement maîtrisées selon les modèles et les contextes.

UELes développeurs et professionnels européens ont accès direct à cette nouvelle génération de modèles, avec des gains qualitatifs significatifs pour les tâches complexes de développement logiciel.

LLMsOpinion
1 source