Aller au contenu principal
Présentation du Trusted Access pour la cybersécurité
ÉthiqueOpenAI Blog13sem

Présentation du Trusted Access pour la cybersécurité

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI lance Trusted Access for Cyber, un cadre basé sur la confiance qui élargit l'accès aux capacités cybersécurité avancées tout en renforçant les protections contre les abus. Ce programme permet à des acteurs vérifiés d'accéder à des outils frontier pour la cybersécurité, avec des garde-fous renforcés. OpenAI vise ainsi à équilibrer innovation et sécurité dans ce domaine sensible.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Présentation de l'OpenAI Academy pour les organisations de presse
1OpenAI Blog 

Présentation de l'OpenAI Academy pour les organisations de presse

OpenAI lance l'OpenAI Academy for News Organizations, un centre d'apprentissage conçu avec le American Journalism Project et The Lenfest Institute pour aider les newsrooms à utiliser l'IA efficacement. Cet Academy offre une formation, des cas d'utilisation pratiques et des directives pour un usage responsable, soutenant ainsi journalistes, rédacteurs en chef et éditeurs dans l'adoption de l'IA pour leurs reportages et opérations.

UEL'OpenAI Academy for News Organizations soutient les newsrooms français et européens dans l'adoption responsable de l'IA pour leurs reportages et opérations, potentiellement impactant des entreprises telles que Le Monde, France Télévisions, ou Sudoxyta, en conformité avec l'AI Act en développement.

ÉthiqueOutil
1 source
Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course
2FrenchWeb 

Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course

Les hackers adoptent désormais l'IA pour accélérer et sophistiquer leurs attaques, remettant en cause le modèle traditionnel de cybersécurité basé sur la détection rapide des intrusions. Les entreprises, qui ont investi massivement dans des outils de surveillance et des centres d'opérations de sécurité (SOC), font face à une nouvelle course aux armements technologiques. La cybersécurité entre dans une ère où la vitesse de réaction humaine ne suffit plus face à des menaces augmentées par l'intelligence artificielle.

UELes acteurs européens de la cybersécurité comme Thales, Orange Cyberdefense et Airbus CyberSecurity sont contraints de repenser en urgence leurs offres SOC face à des attaques dopées à l'IA qui dépassent la capacité de réaction humaine.

ÉthiqueActu
1 source
OpenAI lance son programme de primes pour les failles de sécurité
3OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source
Renforcer la résilience cybernétique à mesure que les capacités des IA s'améliorent
4OpenAI Blog 

Renforcer la résilience cybernétique à mesure que les capacités des IA s'améliorent

Face à l'augmentation des capacités des modèles d'IA en cybersécurité, OpenAI investit dans des mesures de protection renforcées et des capacités défensives. L'entreprise évalue les risques, limite les usages malveillants et collabore avec la communauté de la sécurité pour renforcer la résilience cybernétique.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour