Aller au contenu principal
LLMsThe Decoder15h

ChatGPT intègre GPT-5.5 Instant : moins d'hallucinations et des réponses plus personnalisées

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :OpenAI Blog

OpenAI a commencé à déployer GPT-5.5 Instant comme modèle par défaut de ChatGPT, remplaçant ainsi le modèle précédemment utilisé par des centaines de millions d'utilisateurs. Selon les tests internes de l'entreprise, cette mise à jour produit 52,5 % d'hallucinations en moins sur des sujets à enjeux élevés comme la médecine et le droit. Le déploiement est immédiat pour l'ensemble des utilisateurs, bien que certaines fonctionnalités avancées de personnalisation soient réservées, dans un premier temps, aux abonnés Plus et Pro sur la version web.

La réduction des hallucinations sur des domaines sensibles représente un progrès concret pour les professionnels de santé, les juristes et tous ceux qui utilisent ChatGPT comme outil de travail. Une nouvelle fonctionnalité baptisée "memory sources" permet désormais aux utilisateurs de voir précisément quels éléments de contexte mémorisé ont influencé une réponse donnée, apportant une transparence inédite sur le fonctionnement de la personnalisation. La personnalisation basée sur les conversations passées, les fichiers et Gmail marque une intégration plus profonde dans l'écosystème quotidien des utilisateurs.

Ce déploiement s'inscrit dans une course effrénée entre les grandes plateformes d'IA générative à améliorer la fiabilité de leurs modèles, point noir persistant depuis l'émergence des LLMs. OpenAI, sous pression concurrentielle d'Anthropic, Google et des acteurs open source, mise sur la personnalisation contextuelle et la réduction des erreurs factuelles pour fidéliser sa base d'utilisateurs. L'intégration Gmail, en particulier, soulève des questions sur la confidentialité des données qui devraient alimenter le débat dans les mois à venir.

Impact France/UE

L'intégration Gmail soulève des questions de conformité GDPR pour les utilisateurs européens, tandis que la réduction des hallucinations dans des domaines sensibles bénéficie aux professionnels français en santé et droit utilisant ChatGPT.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Le Big Data 

OpenAI déploie GPT-5.5 Instant : moins d’erreurs, plus de puissance

OpenAI a lancé GPT-5.5 Instant le 5 mai 2026, un nouveau modèle qui remplace progressivement GPT-5.3 Instant sur l'ensemble des offres ChatGPT. Le déploiement, annoncé par Sam Altman sur X, devrait être finalisé en deux jours. La mise à jour apporte trois améliorations majeures : une réduction de 52,5 % des hallucinations sur des sujets sensibles comme la médecine et le droit, des scores en hausse sur des questions scientifiques de niveau avancé ainsi qu'en mathématiques, et des réponses jusqu'à 30 % plus courtes. Le ton devient également plus naturel et plus chaleureux, selon la communication officielle d'OpenAI. Ces changements ont des conséquences concrètes pour les millions d'utilisateurs qui s'appuient quotidiennement sur ChatGPT dans des contextes professionnels ou académiques. La baisse des hallucinations est particulièrement significative dans des domaines où une réponse erronée peut avoir des conséquences réelles : un médecin qui vérifie un protocole, un juriste qui cherche une référence, un étudiant qui prépare un exposé. La concision accrue réduit le temps de lecture et améliore l'efficacité des échanges, une demande explicite de nombreux utilisateurs que l'entreprise dit avoir entendue. La personnalisation renforcée, qui exploite plus intelligemment les conversations passées, les fichiers et les données connectées, rapproche le modèle d'un assistant véritablement adaptatif plutôt que d'un outil générique. OpenAI évolue dans un contexte de concurrence intense, face à Google Gemini, Anthropic Claude et les modèles open source qui gagnent rapidement en maturité. La course ne porte plus seulement sur la puissance brute des modèles, mais aussi sur leur fiabilité et leur utilisabilité au quotidien, deux dimensions où les critiques contre ChatGPT s'étaient accumulées ces derniers mois. Sur la question de la mémoire et de la vie privée, OpenAI a ajouté une fonctionnalité permettant aux utilisateurs de consulter, modifier ou supprimer les informations utilisées pour personnaliser les réponses, une concession notable aux préoccupations croissantes autour de la confidentialité des données. Les performances annoncées restent à confirmer dans des usages réels prolongés, loin des benchmarks contrôlés, mais la direction prise par GPT-5.5 Instant témoigne d'un repositionnement stratégique clair : moins de puissance spectaculaire sur le papier, plus de crédibilité et de praticité dans l'usage réel.

UELes professionnels européens des secteurs médical et juridique utilisant ChatGPT bénéficieront de la réduction annoncée des hallucinations, sans impact réglementaire ou institutionnel spécifique pour la France ou l'UE.

LLMsActu
1 source
GPT-5.5 devient fou : il insère des gobelins partout dans ses réponses !
2Le Big Data 

GPT-5.5 devient fou : il insère des gobelins partout dans ses réponses !

GPT-5.5, le dernier modèle d'OpenAI, s'est mis à glisser des gobelins, gremlins, ratons laveurs, trolls, ogres et pigeons dans ses réponses, même lorsque le sujet n'a aucun rapport avec ces créatures. Le phénomène a été documenté publiquement le 28 avril 2026 par Arena.ai, qui a publié un graphique montrant l'évolution de l'utilisation de ces termes par les modèles GPT au fil du temps. La réaction d'OpenAI ne s'est pas fait attendre : des développeurs ont découvert dans Codex une instruction système associée à GPT-5.5 qui interdit explicitement au modèle de mentionner gobelins, gremlins, ratons laveurs, trolls, ogres ou pigeons, sauf si cela est strictement pertinent à la demande de l'utilisateur. Ce comportement, qualifié par plusieurs spécialistes d'« effondrement de mode », serait lié aux données d'entraînement du modèle : GPT-5.5 aurait développé un tic linguistique, répétant certains motifs de façon excessive et incontrôlée. Si quelques utilisateurs y voient une touche d'humour involontaire et presque attachante, la manière dont OpenAI a choisi de réagir suscite davantage de critiques. Sur X, un utilisateur a résumé l'incompréhension générale : face à un comportement aussi inattendu dans un système aussi avancé, la réponse n'a pas été de chercher la cause profonde du problème, mais simplement d'ordonner au modèle de ne plus mentionner ces créatures. D'autres interprètent l'instruction comme une hostilité ciblée envers les pigeons et les ratons laveurs, ce qui n'a fait qu'amplifier les moqueries en ligne. Ce bug illustre un problème fondamental que l'industrie de l'IA peine encore à résoudre : les grands modèles de langage restent des boîtes noires. Comme l'a formulé un utilisateur de Reddit, on peut identifier un comportement anormal et le corriger par instruction directe, mais expliquer précisément pourquoi il est apparu reste hors de portée. OpenAI n'est pas la première entreprise confrontée à des dérives comportementales inattendues dans ses modèles, et chaque incident de ce type relance le débat sur l'interprétabilité des systèmes d'IA et la solidité des processus d'entraînement. Sam Altman a choisi de désamorcer la situation avec humour, partageant une capture d'écran évoquant l'entraînement de GPT-6 avec « encore plus de gobelins », mais cette légèreté n'efface pas la question de fond : à mesure que ces modèles deviennent plus puissants et plus intégrés dans des outils professionnels comme Codex, leur imprévisibilité devient un risque difficile à ignorer.

UECe comportement imprévisible alimente le débat européen sur l'interprétabilité et la transparence des LLMs, un enjeu central de l'AI Act.

LLMsOpinion
1 source
3InfoQ AI 

DoorDash intègre les LLM dans sa personnalisation avancée

DoorDash a dévoilé une refonte profonde de son système de personnalisation, passant d'une logique de merchandising statique à une approche dynamique centrée sur le moment de consommation. Présenté par Sudeep Das et Pradeep Muthukrishnan, deux ingénieurs de la plateforme, ce nouveau système exploite des grands modèles de langage (LLM) pour générer des profils utilisateurs en langage naturel ainsi que des "blueprints" de contenu adaptés à chaque contexte d'usage, qu'il s'agisse d'une commande express un soir de semaine ou d'un repas planifié le week-end. L'enjeu est de taille : avec un catalogue de millions de restaurants et de produits, DoorDash se retrouvait face au problème classique de l'abondance, où la pertinence de la recommandation se dégrade à mesure que l'offre s'élargit. En combinant la capacité des LLM à interpréter l'intention immédiate de l'utilisateur avec des modèles de deep learning classiques pour le classement final, la plateforme parvient à affiner ses recommandations en temps réel, sans alourdir les couches de ranking critiques en termes de latence. Cette architecture hybride illustre une tendance croissante dans l'industrie : les LLM ne remplacent pas les systèmes de recommandation traditionnels, mais viennent enrichir la compréhension sémantique du contexte utilisateur en amont. DoorDash rejoint ainsi Amazon, Netflix et Instacart dans la course à la personnalisation contextuelle, où capturer l'intention fugace d'un utilisateur devient un avantage compétitif décisif face à des plateformes de livraison de plus en plus interchangeables.

LLMsOutil
1 source
Le passage à la personnalisation des modèles d'IA est une nécessité architecturale
4MIT Technology Review 

Le passage à la personnalisation des modèles d'IA est une nécessité architecturale

Les grands modèles de langage (LLM) généralistes ont connu leur âge d'or : des bonds de performance spectaculaires à chaque nouvelle version. Cette ère touche à sa fin. Les progrès s'accumulent désormais de façon incrémentale sur les benchmarks généraux, tandis qu'une exception subsiste — l'intelligence de domaine. Mistral AI, la startup française spécialisée en IA, documente plusieurs déploiements concrets de modèles sur mesure : un fabricant d'équipements réseau a entraîné un modèle sur ses propres langages et bases de code propriétaires, obtenant une maîtrise que les modèles standards ne pouvaient atteindre ; un grand constructeur automobile a automatisé l'analyse comparative entre simulations numériques et tests physiques de crash, réduisant à quelques minutes ce qui mobilisait autrefois des journées entières de travail spécialisé ; enfin, une agence gouvernementale en Asie du Sud-Est a commandité un modèle fondation calibré sur les langues régionales et les contextes culturels locaux pour créer une infrastructure d'IA souveraine, indépendante des modèles occidentaux. L'enjeu central est la création d'un avantage concurrentiel durable. Lorsqu'un modèle est entraîné sur les données propriétaires d'une organisation — ses processus internes, sa terminologie métier, son historique décisionnel —, il encode la logique de l'entreprise directement dans ses poids. Cela va bien au-delà du fine-tuning classique : c'est l'institutionnalisation de l'expertise dans un système automatisé. Pour l'industrie automobile, cela signifie un copilote capable de proposer des ajustements de conception en temps réel. Pour le secteur public, c'est la garantie que des données sensibles restent sous gouvernance nationale tout en alimentant des services citoyens efficaces. La customisation transforme l'IA d'outil générique en actif stratégique différenciant. Ce changement de paradigme intervient alors que les organisations réalisent les limites des approches expérimentales menées en silos. Les pilotes isolés produisent des pipelines fragiles, une gouvernance improvisée et une portabilité réduite. La vraie rupture exige de traiter l'IA comme une infrastructure d'entreprise — au même titre qu'une base de données ou un système ERP — et non comme un projet ponctuel. Mistral AI se positionne comme partenaire de cette transition en intégrant l'expertise métier dans ses écosystèmes d'entraînement. La course à la personnalisation redéfinit les rapports de force : les entreprises capables d'encoder leur savoir institutionnel dans un modèle construisent une barrière à l'entrée que les acteurs généralistes ne peuvent pas répliquer, car ce fossé se creuse à mesure que le modèle apprend et s'affine avec les données nouvelles de l'organisation.

UEMistral AI, startup française de référence, se positionne comme partenaire stratégique pour les entreprises et institutions européennes souhaitant développer des modèles sur mesure garantissant la souveraineté de leurs données.

LLMsActu
1 source