Aller au contenu principal
Collabore avec AARP pour aider à garantir la sécurité en ligne des personnes âgées
ÉthiqueOpenAI Blog32sem

Collabore avec AARP pour aider à garantir la sécurité en ligne des personnes âgées

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI collabore avec AARP pour protéger les personnes âgées en ligne grâce à une formation AI, des outils de détection de escroqueries et des programmes nationaux via OpenAI Academy et Senior Planet de OATS.

Impact France/UE

OpenAI s'associe à AARP pour renforcer la sécurité en ligne des personnes âgées en France et en Europe via des formations AI, des outils de détection des fraudes et des programmes nationaux, respectant les normes RGPD et potentiellement impactant les secteurs de la cybersécurité et des services aux seniors.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Présentation du Trusted Access pour la cybersécurité
1OpenAI Blog 

Présentation du Trusted Access pour la cybersécurité

OpenAI lance Trusted Access for Cyber, un cadre basé sur la confiance qui élargit l'accès aux capacités cybersécurité avancées tout en renforçant les protections contre les abus. Ce programme permet à des acteurs vérifiés d'accéder à des outils frontier pour la cybersécurité, avec des garde-fous renforcés. OpenAI vise ainsi à équilibrer innovation et sécurité dans ce domaine sensible.

ÉthiqueActu
1 source
Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course
2FrenchWeb 

Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course

Les hackers adoptent désormais l'IA pour accélérer et sophistiquer leurs attaques, remettant en cause le modèle traditionnel de cybersécurité basé sur la détection rapide des intrusions. Les entreprises, qui ont investi massivement dans des outils de surveillance et des centres d'opérations de sécurité (SOC), font face à une nouvelle course aux armements technologiques. La cybersécurité entre dans une ère où la vitesse de réaction humaine ne suffit plus face à des menaces augmentées par l'intelligence artificielle.

UELes acteurs européens de la cybersécurité comme Thales, Orange Cyberdefense et Airbus CyberSecurity sont contraints de repenser en urgence leurs offres SOC face à des attaques dopées à l'IA qui dépassent la capacité de réaction humaine.

ÉthiqueActu
1 source
Renforcer notre écosystème de sécurité grâce à des tests externes
3OpenAI Blog 

Renforcer notre écosystème de sécurité grâce à des tests externes

OpenAI collabore avec des experts indépendants pour évaluer les systèmes d'IA de pointe, renforçant ainsi la sécurité, validant les mesures de protection et améliorant la transparence dans l'analyse des capacités et des risques des modèles. Cette approche externe permet d'assurer une évaluation rigoureuse et objective des systèmes d'IA.

ÉthiqueActu
1 source
OpenAI lance son programme de primes pour les failles de sécurité
4OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour