Aller au contenu principal
Renforcer notre écosystème de sécurité grâce à des tests externes
ÉthiqueOpenAI Blog24sem

Renforcer notre écosystème de sécurité grâce à des tests externes

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI collabore avec des experts indépendants pour évaluer les systèmes d'IA de pointe, renforçant ainsi la sécurité, validant les mesures de protection et améliorant la transparence dans l'analyse des capacités et des risques des modèles. Cette approche externe permet d'assurer une évaluation rigoureuse et objective des systèmes d'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Renforcer la résilience cybernétique à mesure que les capacités des IA s'améliorent
1OpenAI Blog 

Renforcer la résilience cybernétique à mesure que les capacités des IA s'améliorent

Face à l'augmentation des capacités des modèles d'IA en cybersécurité, OpenAI investit dans des mesures de protection renforcées et des capacités défensives. L'entreprise évalue les risques, limite les usages malveillants et collabore avec la communauté de la sécurité pour renforcer la résilience cybernétique.

ÉthiqueOpinion
1 source
Notre approche des litiges liés à la santé mentale
2OpenAI Blog 

Notre approche des litiges liés à la santé mentale

Nous partageons notre approche pour gérer les litiges liés à la santé mentale avec soin, transparence et respect, tout en renforçant la sécurité et le soutien dans ChatGPT. Cette démarche vise à protéger les utilisateurs tout en améliorant l'expérience globale de l'outil.

ÉthiqueOpinion
1 source
Mise à jour de notre spécification de modèle avec des protections pour les adolescents
3OpenAI Blog 

Mise à jour de notre spécification de modèle avec des protections pour les adolescents

OpenAI met à jour ses spécifications du modèle avec de nouveaux principes destinés aux moins de 18 ans, visant à garantir un accompagnement sûr et adapté à l'âge, fondé sur la science du développement. Cette mise à jour renforce les mesures de protection, précise le comportement attendu du modèle dans les situations à risque élevé et s'appuie sur les efforts plus larges d'OpenAI pour améliorer la sécurité des adolescents sur ChatGPT.

ÉthiqueActu
1 source
OpenAI lance son programme de primes pour les failles de sécurité
4OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour