Aller au contenu principal
Adolescents : sécurité, liberté et vie privée
ÉthiqueOpenAI Blog33sem

Adolescents : sécurité, liberté et vie privée

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI examine comment équilibrer la sécurité, la liberté et la vie privée des adolescents lors de l'utilisation de l'IA. L'entreprise se concentre sur la protection des jeunes utilisateurs tout en préservant leur autonomie et leur confidentialité.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Présentation du Trusted Access pour la cybersécurité
1OpenAI Blog 

Présentation du Trusted Access pour la cybersécurité

OpenAI lance Trusted Access for Cyber, un cadre basé sur la confiance qui élargit l'accès aux capacités cybersécurité avancées tout en renforçant les protections contre les abus. Ce programme permet à des acteurs vérifiés d'accéder à des outils frontier pour la cybersécurité, avec des garde-fous renforcés. OpenAI vise ainsi à équilibrer innovation et sécurité dans ce domaine sensible.

ÉthiqueActu
1 source
Ressources d'alphabétisation en intelligence artificielle pour adolescents et parents
2OpenAI Blog 

Ressources d'alphabétisation en intelligence artificielle pour adolescents et parents

OpenAI propose des ressources d'alphabétisation en IA pour adolescents et parents pour utiliser ChatGPT de manière réfléchie, sûre et confiante. Les guides contiennent des conseils vérifiés par des experts sur un usage responsable, la pensée critique, les limites saines et le soutien aux adolescents sur des sujets émotionnels ou sensibles.

ÉthiqueTuto
1 source
OpenAI lance son programme de primes pour les failles de sécurité
3OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source
Mise à jour de notre spécification de modèle avec des protections pour les adolescents
4OpenAI Blog 

Mise à jour de notre spécification de modèle avec des protections pour les adolescents

OpenAI met à jour ses spécifications du modèle avec de nouveaux principes destinés aux moins de 18 ans, visant à garantir un accompagnement sûr et adapté à l'âge, fondé sur la science du développement. Cette mise à jour renforce les mesures de protection, précise le comportement attendu du modèle dans les situations à risque élevé et s'appuie sur les efforts plus larges d'OpenAI pour améliorer la sécurité des adolescents sur ChatGPT.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour