Aller au contenu principal
GPT-5 lance un bug bounty biosécurité
RobotiqueOpenAI Blog35sem

GPT-5 lance un bug bounty biosécurité

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI lance une initiative de récompense pour les chercheurs afin de tester la sécurité de GPT-5 avec une requête de jailbreak universelle. Les participants ont la chance de gagner jusqu'à 25 000 dollars.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Robot de livraison : un accident à Chicago relance le débat sur la sécurité
1ZDNET FR 

Robot de livraison : un accident à Chicago relance le débat sur la sécurité

Un robot de livraison autonome est entré en collision avec un arrêt de bus en plein centre de Chicago, provoquant un incident largement relayé qui remet en question la fiabilité de ces engins dans les espaces urbains densément fréquentés. L'accident ravive les inquiétudes sur la cohabitation entre robots et piétons : ces machines circulent sur les trottoirs, partagent l'espace avec des usagers vulnérables et peuvent causer des blessures ou bloquer la voie publique en cas de défaillance. Pour les entreprises du secteur, ce type d'incident fragilise la confiance du public et pourrait accélérer des demandes de réglementation plus stricte. Il ne s'agit pas d'un fait isolé : plusieurs accidents similaires impliquant des robots de livraison ont été recensés ces dernières années aux États-Unis, au moment même où ces technologies connaissent une expansion rapide dans les grandes villes.

UEL'incident américain pourrait alimenter les débats réglementaires européens sur l'encadrement des robots autonomes circulant dans les espaces publics.

RobotiqueActu
1 source
AprielGuard: un garde-corps pour la sécurité et la robustesse adversative dans les systèmes LLM modernes
2HuggingFace Blog 

AprielGuard: un garde-corps pour la sécurité et la robustesse adversative dans les systèmes LLM modernes

Titre: AprielGuard: Protection contre les menaces et robustesse face aux attaques pour les systèmes LLM modernes Résumé: AprielGuard est une solution de sécurité conçue pour renforcer la robustesse adversariale des grands modèles de langage (LLM) modernes, offrant une protection contre les attaques malveillantes tout en maintenant les performances des systèmes.

UEAprielGuard renforce la sécurité des grands modèles de langage (LLM) modernes, protégeant les entreprises européennes contre les attaques malveillantes tout en préservant les performances des systèmes, conformément aux obligations de sécurité et de confidentialité imposées par le RGPD et l'AI Act.

RobotiqueOutil
1 source
OpenAI dévoile son nouveau modèle GPT-5.4, un pas de géant vers des agents autonomes
3The Verge AI 

OpenAI dévoile son nouveau modèle GPT-5.4, un pas de géant vers des agents autonomes

OpenAI a lancé GPT-5.4, une nouvelle version de son modèle d'IA intégrant des progrès en raisonnement, codage et travail professionnel avec des feuilles de calcul, des documents et des présentations. C'est le premier modèle d'OpenAI capable de fonctionner directement sur un ordinateur pour accomplir des tâches dans diverses applications. Ce modèle marque une avancée significative vers l'avenir des agents autonomes que les sociétés d'IA visent à créer. Faits clés: - Nouveau modèle: GPT-5.4 - Avancées: Raisonnement, codage, travail avec des feuilles de calcul, documents, présentations - Capacités inédites: Fonctionnement direct sur un ordinateur pour accomplir des tâches - Contexte: Progression vers l'utilisation généralisée d'agents autonomes basés sur l'IA pour effectuer des tâches complexes en ligne et dans des logiciels.

RobotiqueOutil
1 source
Bloqué 1h30 dans un robot taxi sans aucune assistance : Baidu vient de tuer la confiance des usagers en un seul bug
4Frandroid 

Bloqué 1h30 dans un robot taxi sans aucune assistance : Baidu vient de tuer la confiance des usagers en un seul bug

Des centaines de robotaxis Baidu se sont immobilisés simultanément en plein milieu de trajets en cours, en Chine, provoquant des embouteillages importants et plusieurs collisions. Les passagers, bloqués à l'intérieur des véhicules sans possibilité de reprendre la main sur le volant, ont attendu jusqu'à une heure trente sans recevoir aucune assistance humaine. Le bug, dont l'origine technique n'a pas encore été officiellement communiquée par Baidu, a touché le service Apollo Go, le bras autonome du géant technologique chinois. L'incident illustre de manière brutale la principale vulnérabilité des flottes de véhicules autonomes connectés : une défaillance logicielle centralisée peut paralyser des centaines de véhicules en même temps, sans aucun filet de sécurité humain immédiat. Pour les usagers coincés, l'absence totale de support en temps réel a transformé un simple bug en expérience anxiogène. C'est précisément ce type d'événement qui érode la confiance du grand public bien plus efficacement que n'importe quel accident isolé — car il touche à la fois la fiabilité technique et à l'abandon perçu des passagers. Baidu est l'un des leaders mondiaux du robotaxi, avec des milliers de véhicules déployés dans plusieurs grandes villes chinoises comme Wuhan et Chengdu dans le cadre d'un service commercial sans chauffeur de sécurité. La course à l'autonomie totale, partagée avec Waymo aux États-Unis et WeRide en Chine, pousse les opérateurs à retirer rapidement les superviseurs humains pour réduire les coûts — un arbitrage qui montre ici ses limites. Des enquêtes réglementaires et une révision des protocoles d'assistance d'urgence sont désormais attendues.

UECet incident pourrait accélérer les discussions réglementaires européennes sur les protocoles d'assistance obligatoires et les exigences de sécurité pour les flottes de véhicules autonomes commerciales déployées sans superviseur humain à bord.

💬 1h30 bloqué dans une boîte en métal sans pouvoir sortir, sans personne au bout du fil, c'est pas un bug, c'est un scénario de film d'horreur. Le vrai problème n'est pas la panne elle-même, c'est que Baidu a retiré le filet humain avant d'avoir un plan B, parce que ça coûte moins cher. Reste à voir si les régulateurs vont enfin poser des exigences claires, ou si on attend le prochain incident.

RobotiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour