Aller au contenu principal
Estimer les risques de frontière d'extrême des LLMs à poids ouvert
RechercheOpenAI Blog39sem

Estimer les risques de frontière d'extrême des LLMs à poids ouvert

Résumé IASource uniqueImpact UE
Source originale ↗·

Cet article examine les risques de frontière extrême liés à la libération de GPT-OSS, introduisant le concept de "malicious fine-tuning" (MFT) pour maximiser ses capacités dans les domaines de la biologie et de la cybersécurité.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Subventions de financement pour de nouvelles recherches sur l'IA et la santé mentale
1OpenAI Blog 

Subventions de financement pour de nouvelles recherches sur l'IA et la santé mentale

OpenAI offre des subventions allant jusqu'à 2 millions de dollars pour des recherches explorant la convergence de l'IA et de la santé mentale. Le programme finance des projets se concentrant sur les risques, avantages et applications réels pour améliorer la sécurité et le bien-être.

RechercheActu
1 source
Entraînés sur des tokens, calibrés sur des concepts : l'émergence de la calibration sémantique dans les LLMs
2Apple Machine Learning 

Entraînés sur des tokens, calibrés sur des concepts : l'émergence de la calibration sémantique dans les LLMs

Les grands modèles de langage (LLM) sont capables d'évaluer leur propre confiance au niveau sémantique, pas seulement au niveau des tokens — et ce sans avoir été explicitement entraînés pour cela. Une étude montre que les LLM de base sont remarquablement bien calibrés pour estimer leur certitude sur le sens réel de leurs réponses dans des tâches de questions-réponses en domaine ouvert. Les chercheurs proposent un mécanisme théorique expliquant pourquoi cette calibration sémantique émerge naturellement de l'entraînement sur des tokens.

RecherchePaper
1 source
Évaluer la capacité de l'IA à accomplir des tâches de recherche scientifique
3OpenAI Blog 

Évaluer la capacité de l'IA à accomplir des tâches de recherche scientifique

OpenAI présente FrontierScience, un banc d'essai évaluant la capacité des systèmes d'IA à raisonner dans les domaines de la physique, de la chimie et de la biologie pour mesurer les progrès vers la recherche scientifique réelle.

UEOpenAI's FrontierScience, un banc d'essai pour l'IA dans les domaines scientifiques, pourrait influencer les entreprises françaises et européennes comme Sanofi, BNP Paribas ou TotalEnergies en accélérant la recherche scientifique, tout en nécessitant une vigilance accrue pour la conformité avec l'AI Act et le RGPD en matière de protection des données et d'éthique des algorithmes.

RecherchePaper
1 source
Anciens chercheurs d'Anthropic en discussion pour lever des fonds pour une nouvelle startup évaluée à 1 milliard de dollars
4The Information AI 

Anciens chercheurs d'Anthropic en discussion pour lever des fonds pour une nouvelle startup évaluée à 1 milliard de dollars

Des anciens chercheurs d'Anthropic discutent de levées de fonds de 175 millions de dollars à une valorisation de 1 milliard de dollars pour une nouvelle startup, Mirendil, visant la recherche et le développement AI dans des domaines scientifiques comme la biologie et les sciences des matériaux. Firmes de capital-risque Andreessen Horowitz et Kleiner Perkins envisagent de co-diriger cette ronde. Malgré les départs de chercheurs d'OpenAI, Google et Meta, Anthropic a vu relativement peu de départs de son équipe de recherche.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour