Aller au contenu principal
Pourquoi les modèles de langage font des hallucinations
RechercheOpenAI Blog35sem

Pourquoi les modèles de langage font des hallucinations

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a publié une étude expliquant pourquoi les modèles de langage produisent des "hallucinations". Les résultats montrent que des évaluations améliorées peuvent renforcer la fiabilité, l'honnêteté et la sécurité des systèmes d'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Amélioration de la hiérarchie d'instructions dans les grands modèles de langage de pointe
1OpenAI Blog 

Amélioration de la hiérarchie d'instructions dans les grands modèles de langage de pointe

IH-Challenge est un dispositif d'entraînement qui apprend aux grands modèles de langage à prioriser les instructions de confiance selon une hiérarchie définie. Cette approche améliore la capacité des modèles à être guidés vers des comportements sûrs et renforce leur résistance aux attaques par injection de prompt. Les résultats montrent des gains significatifs en matière de sécurité et de contrôlabilité des LLMs.

UECette recherche sur la sécurité et la contrôlabilité des LLMs pourrait bénéficier aux développeurs européens comme Mistral AI dans leur effort de conformité avec l'AI Act de l'UE.

RecherchePaper
1 source
L'attention paginée dans les grands modèles de langage
2MarkTechPost 

L'attention paginée dans les grands modèles de langage

Dans les LLMs à grande échelle, la mémoire GPU est le principal goulot d'étranglement : chaque requête réserve un bloc fixe pour le cache KV basé sur la longueur maximale de séquence (2048 tokens, soit 1024 Mo), alors qu'en moyenne seulement 24,4 % de cet espace est réellement utilisé — représentant 75 Go gaspillés pour 100 utilisateurs simultanés. Le Paged Attention résout ce problème en découpant le cache KV en petits blocs alloués dynamiquement (16 tokens par page, inspiré de la mémoire virtuelle), permettant aussi à plusieurs requêtes partageant le même prompt de partager la mémoire via un mécanisme Copy-on-Write. Cette approche améliore drastiquement l'efficacité mémoire et le débit, mesurée ici sur des batchs de 10 à 200 requêtes simultanées.

RecherchePaper
1 source
Lorsque les modèles de langage hallucinent, ils laissent une "énergie déversée" dans leur propre mathématique
3The Decoder 

Lorsque les modèles de langage hallucinent, ils laissent une "énergie déversée" dans leur propre mathématique

Lorsque les grands modèles de langage hallucinent, ils laissent des traces mesurables dans leurs propres calculs. Des chercheurs de l'Université Rome Sapienza ont développé une méthode sans entraînement qui détecte ces traces et généralise mieux que les approches précédentes.

UECette avancée de l'Université La Sapienza de Rome renforce la capacité européenne à fiabiliser les LLMs, un enjeu clé pour les acteurs comme Mistral qui doivent répondre aux exigences de transparence de l'IA Act.

RecherchePaper
1 source
Présentation de l'Éducation pour les Nations
4OpenAI Blog 

Présentation de l'Éducation pour les Nations

Initiative OpenAI: Edu for Countries aide les gouvernements à utiliser l'IA pour moderniser les systèmes éducatifs et préparer les futurs travailleurs. Fact-clés: - OpenAI lance Edu for Countries pour soutenir les gouvernements dans l'intégration de l'IA dans l'éducation. - Objectif: moderniser les systèmes éducatifs et former des travailleurs prêts pour l'avenir.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour