Aller au contenu principal
Bienvenue à GPT OSS, la nouvelle famille de modèles open-source signée OpenAI !
RechercheHuggingFace Blog39sem

Bienvenue à GPT OSS, la nouvelle famille de modèles open-source signée OpenAI !

Résumé IASource uniqueImpact UE
Source originale ↗·

Bienvenue à GPT OSS, la nouvelle famille de modèles open-source de OpenAI! Cette initiative met à disposition des chercheurs et développeurs un accès direct à l'architecture de base de GPT-3. Les détails techniques incluent l'utilisation de Python et Transformers de Hugging Face, avec la possibilité d'entraînement sur GPU multi-têtes. OpenAI fournit également un exemple de code pour initier un modèle GPT-2 sur une machine avec plusieurs GPU.

Impact France/UE

OpenAI lance GPT OSS, offrant aux chercheurs et développeurs européens, y compris ceux en France, un accès direct à l'architecture de base de GPT-3, stimulant l'innovation dans les secteurs de l'IA tout en respectant les réglementations telles que le RGPD et en préparant les entreprises à l'application de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Grand modèle génomique: IA open source entraînée sur des billions de bases
1Ars Technica AI 

Grand modèle génomique: IA open source entraînée sur des billions de bases

L'équipe d'Evo a développé Evo 2, un modèle d'IA open source formé sur des milliards de paires de bases de l'ADN provenant des trois domaines de la vie (bactéries, archées, et eucaryotes). Après avoir analysé des quantités massives de génomes, Evo 2 a développé des représentations internes de caractéristiques essentielles dans des génomes complexes, y compris des éléments régulateurs de l'ADN et des sites d'splice, souvent difficiles à identifier pour les humains.

UELes laboratoires et instituts de recherche européens en génomique (comme l'Institut Pasteur ou le CEA) peuvent directement exploiter ce modèle open source pour accélérer leurs travaux sur la compréhension des génomes complexes et le développement de thérapies.

RecherchePaper
1 source
OpenAI offre aux mainteneurs open-source six mois d'accès gratuit à ChatGPT Pro et Codex
2The Decoder 

OpenAI offre aux mainteneurs open-source six mois d'accès gratuit à ChatGPT Pro et Codex

OpenAI offre gratuitement pendant six mois à mainteneurs de projets open-source les versions Pro de ChatGPT et Codex, ainsi que des outils de sécurité. Cette initiative vise à soutenir les développeurs open-source.

UEOpenAI offre gratuitement pendant six mois à mainteneurs de projets open-source français/européens les versions Pro de ChatGPT et Codex, soutenant ainsi les initiatives de développement logiciel open-source dans l'UE.

RechercheOutil
1 source
L'optimisation bayésienne : pourquoi la nouvelle méthode d'entraînement de Google AI est la clé du raisonnement des LLM
3MarkTechPost 

L'optimisation bayésienne : pourquoi la nouvelle méthode d'entraînement de Google AI est la clé du raisonnement des LLM

Des chercheurs de Google ont identifié une limite majeure des LLMs comme Llama-3-70B et Qwen-2.5-32B : leur incapacité à mettre à jour leurs "croyances" au fil des interactions, plafonnant dès le premier échange. Ils ont développé le Bayesian Teaching, une technique d'entraînement qui apprend aux modèles à raisonner comme un assistant bayésien — en maintenant et mettant à jour une distribution de probabilités sur les préférences utilisateur à chaque round. Contre-intuitivement, entraîner les modèles sur des "suppositions éclairées" (souvent fausses en début d'apprentissage) s'est révélé plus efficace que de les entraîner sur les bonnes réponses, permettant à des modèles comme Gemma-2-9B et Llama-3-8B d'approcher les performances du modèle bayésien de référence.

RecherchePaper
1 source
Mise à jour de la carte du système GPT-5 : GPT-5.2
4OpenAI Blog 

Mise à jour de la carte du système GPT-5 : GPT-5.2

GPT-5.2 est la dernière famille de modèles de la série GPT-5, utilisant une approche globale de mitigation des risques similaire à celle décrite dans la GPT-5 System Card et la GPT-5.1 System Card. Ces modèles ont été formés sur des ensembles de données variés, y compris des informations publiques sur Internet, des informations accessibles grâce à des partenariats avec des tiers, et des informations fournies ou générées par des utilisateurs, des entraîneurs humains ou des chercheurs.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour