Aller au contenu principal
OpenAI ajoute des outils open source pour aider les développeurs à protéger les adolescents
SécuritéTechCrunch AI6sem

OpenAI ajoute des outils open source pour aider les développeurs à protéger les adolescents

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI franchit un nouveau pas en matière de protection des mineurs en ligne en publiant un ensemble d'outils open source destinés aux développeurs souhaitant intégrer des garde-fous pour les adolescents dans leurs applications basées sur l'IA. Plutôt que de laisser chaque équipe réinventer la roue, la société propose désormais des politiques et ressources prêtes à l'emploi.

L'enjeu est considérable : à mesure que les outils d'IA prolifèrent, la question de leur utilisation par des publics mineurs devient centrale pour les régulateurs, les parents et les plateformes elles-mêmes. En mutualisant les efforts via une approche open source, OpenAI espère élever le niveau de sécurité de l'ensemble de l'écosystème, sans que chaque développeur ait à partir de zéro pour définir ce qui constitue un contenu ou une interaction appropriée pour un jeune utilisateur.

Ces ressources se présentent sous forme de politiques configurables que les développeurs peuvent intégrer directement dans leurs produits pour renforcer les protections existantes. L'approche reconnaît implicitement que la sécurité des adolescents ne peut pas reposer uniquement sur les géants du secteur — elle doit aussi s'ancrer dans les couches basses de développement, là où se construit concrètement l'expérience utilisateur.

Cette initiative s'inscrit dans un contexte de pression croissante des législateurs, notamment aux États-Unis et en Europe, pour que les plateformes numériques et les éditeurs d'IA assument une responsabilité accrue vis-à-vis des mineurs. En ouvrant ces outils à la communauté, OpenAI se positionne comme un acteur proactif sur ce dossier sensible.

Impact France/UE

Ces outils peuvent aider les développeurs européens à se conformer aux exigences de protection des mineurs prévues par le DSA et le règlement IA de l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Aider les développeurs à créer des expériences IA plus sûres pour les adolescents
1OpenAI Blog 

Aider les développeurs à créer des expériences IA plus sûres pour les adolescents

OpenAI publie des politiques de sécurité adaptées aux adolescents pour les développeurs utilisant gpt-oss-safeguard, permettant de modérer les risques spécifiques à cette tranche d'âge dans les systèmes d'IA. Ces directives basées sur des prompts aident les équipes à construire des expériences plus sûres pour les mineurs.

UELes développeurs européens soumis au DSA et à l'AI Act doivent protéger les mineurs en ligne — ces directives OpenAI peuvent aider à se conformer aux obligations de sécurité pour les moins de 18 ans.

SécuritéActu
1 source
Microsoft publie un toolkit open source pour sécuriser les agents IA en production
2AI News 

Microsoft publie un toolkit open source pour sécuriser les agents IA en production

Microsoft a publié un toolkit open-source destiné à sécuriser les agents d'intelligence artificielle en temps réel au sein des environnements d'entreprise. Baptisé runtime security toolkit, cet outil s'intercale entre le modèle de langage et le réseau d'entreprise pour surveiller, évaluer et bloquer les actions des agents autonomes au moment précis où ils tentent de les exécuter. Concrètement, lorsqu'un agent IA déclenche un appel vers un outil externe, une base de données, un pipeline CI/CD ou un dépôt cloud, le toolkit intercepte la requête, la compare à un ensemble de règles de gouvernance centralisées, et bloque l'action si elle enfreint la politique définie. Un agent autorisé uniquement à consulter un inventaire qui tenterait de passer une commande d'achat se verrait immédiatement arrêté, et l'événement serait journalisé pour révision humaine. L'enjeu est considérable pour les équipes de sécurité et les développeurs. Les systèmes d'IA d'entreprise ne se contentent plus de répondre à des questions : ils exécutent du code, envoient des e-mails, modifient des fichiers et interagissent avec des API critiques sans intervention humaine directe. Les méthodes traditionnelles, analyse statique du code, scan de vulnérabilités avant déploiement, sont structurellement inadaptées aux modèles de langage non-déterministes. Une seule attaque par injection de prompt ou une hallucination mal orientée peut suffire à écraser une base de données ou exfiltrer des données clients. Le toolkit de Microsoft découple la politique de sécurité de la logique applicative : les développeurs n'ont plus à hardcoder des règles de sécurité dans chaque prompt, et les équipes sécurité disposent d'une piste d'audit vérifiable pour chaque décision autonome du modèle. Le choix de publier ce toolkit sous licence open-source n'est pas anodin. Les développeurs construisent aujourd'hui des workflows autonomes en combinant des bibliothèques open-source, des frameworks variés et des modèles tiers, Anthropic, Meta, Mistral ou d'autres. Un outil propriétaire lié à l'écosystème Microsoft aurait probablement été contourné au profit de solutions non vérifiées, sous pression des délais. En ouvrant le code, Microsoft permet à n'importe quelle organisation, qu'elle tourne sur des modèles locaux, sur Azure ou sur des architectures hybrides, d'intégrer ces contrôles de gouvernance sans dépendance fournisseur. L'ouverture invite aussi la communauté cybersécurité à contribuer et à empiler des outils commerciaux, tableaux de bord, intégrations de réponse aux incidents, par-dessus cette fondation commune, accélérant la maturité de tout l'écosystème. À mesure que les agents autonomes s'imposent dans les entreprises, ce type de couche de sécurité d'infrastructure pourrait devenir un standard incontournable.

UELes entreprises européennes déployant des agents IA peuvent adopter cet outil open-source pour répondre aux exigences de gouvernance et de traçabilité imposées par l'AI Act.

SécuritéOpinion
1 source
Gemini accelere l'acces aux ressources de sante mentale pour les utilisateurs en detresse
3The Verge AI 

Gemini accelere l'acces aux ressources de sante mentale pour les utilisateurs en detresse

Google a mis à jour Gemini pour accélérer l'accès aux ressources de santé mentale lorsqu'un utilisateur semble traverser une crise. Concrètement, le système existant, qui déclenchait déjà un module "Une aide est disponible" dès que la conversation laissait entrevoir un risque de suicide ou d'automutilation, a été revu dans sa conception. La nouveauté est un accès en un seul geste vers les lignes de crise, comme un numéro d'urgence ou un service de tchat, réduisant ainsi la friction entre le moment de détresse et le premier contact avec un professionnel. Cette mise à jour intervient dans un contexte juridique tendu pour Google : l'entreprise fait face à une plainte au civil pour mort injustifiée, alléguant que Gemini aurait "coaché" un homme vers le suicide. C'est la dernière d'une série de poursuites visant des produits d'IA pour des préjudices concrets sur des utilisateurs vulnérables. Simplifier l'accès aux ressources d'urgence n'est pas seulement une question d'ergonomie, c'est aussi une réponse directe à la pression réglementaire et judiciaire qui s'exerce sur les grands modèles déployés auprès du grand public. La question de la sécurité des chatbots face aux publics en situation de fragilité psychologique est devenue un enjeu central de l'industrie. Des affaires similaires ont visé Character.AI, dont le chatbot a été mis en cause dans des cas impliquant des mineurs. Les régulateurs européens et américains examinent de près les obligations de sécurité des plateformes d'IA, et des décisions comme celle de Google pourraient préfigurer des standards sectoriels imposés par la loi.

UELes régulateurs européens examinent les obligations de sécurité des plateformes IA grand public, et cette décision de Google pourrait préfigurer des standards sectoriels qui s'imposeront via l'AI Act ou d'autres législations européennes.

SécuritéOpinion
1 source
Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités
4Le Big Data 

Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités

YouTube a annoncé le 21 avril 2026 l'extension de son outil de détection de ressemblance par intelligence artificielle à l'ensemble de l'industrie du divertissement. L'annonce a été faite directement par Neal Mohan, PDG de YouTube, qui a confirmé des partenariats avec plusieurs grandes agences de talent hollywoodiennes, dont CAA, United Talent Agency, WME et Untitled Management. Le système analyse automatiquement les vidéos mises en ligne sur la plateforme afin d'identifier les contenus qui reproduisent artificiellement le visage d'une personnalité inscrite. Les célébrités éligibles peuvent s'inscrire via ces agences partenaires en fournissant simplement une pièce d'identité et une vidéo selfie. Une fois enregistrées, elles accèdent à un tableau de bord listant les contenus détectés et peuvent soumettre des demandes de suppression. Point notable : la protection s'applique même aux artistes ne possédant pas de chaîne YouTube. L'enjeu est considérable dans un contexte où les deepfakes sont devenus techniquement indiscernables de vidéos authentiques. Pour les personnalités publiques, ce type de contenu représente une menace directe : détournement d'image, atteinte à la réputation, propagation de fausses déclarations en quelques heures. Disposer d'un outil de surveillance automatisée et gratuit change concrètement la donne, en permettant une intervention rapide avant qu'une vidéo problématique ne devienne virale. YouTube ne supprime pas systématiquement tous les contenus signalés : la plateforme applique ses règles existantes de confidentialité et de copyright, maintenant des exceptions pour la satire et la parodie, ce qui évite une censure aveugle tout en limitant les usages malveillants. La technologie n'est pas nouvelle pour YouTube : la plateforme la testait depuis 2025 d'abord avec des créateurs de contenu, avant de l'étendre progressivement aux journalistes et responsables politiques. Le déploiement à Hollywood marque une montée en puissance significative, au moment où la prolifération des outils d'IA génératives rend la création de deepfakes accessible à n'importe qui. Cette initiative s'inscrit dans une pression croissante sur les grandes plateformes pour mieux réguler les contenus synthétiques, une problématique que le Congrès américain et plusieurs législateurs européens cherchent à encadrer légalement. Des voix critiques soulèvent déjà le risque de faux positifs, notamment pour des vidéos de fans ou des parodies légitimes, mais YouTube indique que les taux de suppression lors des phases de test sont restés faibles. La question de la scalabilité, lorsque des milliers d'artistes rejoindront le système, reste entière.

UEL'outil est pour l'instant limité aux agences de talent hollywoodiennes américaines, mais la pression réglementaire européenne sur les contenus synthétiques pourrait contraindre YouTube à étendre ce dispositif aux personnalités françaises et européennes.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour