Aller au contenu principal
OpenAI et Anthropic partagent les résultats d'une évaluation conjointe de sécurité
RechercheOpenAI Blog36sem

OpenAI et Anthropic partagent les résultats d'une évaluation conjointe de sécurité

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI et Anthropic divulguent les résultats d'une première évaluation conjointe de sécurité, examinant mutuellement leurs modèles pour des problèmes tels que la décalage, la suite d'instructions, les hallucinations, le "jailbreaking", etc. Ce partenariat met en lumière les avancées, les défis et l'importance de la collaboration inter-laboratoires.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Déclaration conjointe d'OpenAI et de Microsoft
1OpenAI Blog 

Déclaration conjointe d'OpenAI et de Microsoft

OpenAI et Microsoft maintiennent une collaboration étroite en recherche, ingénierie et développement de produits, capitalisant sur des années de coopération approfondie et de succès partagés.

UEOpenAI et Microsoft renforcent leur partenariat pour l'innovation en IA, influençant potentiellement des entreprises françaises et européennes, sans impact direct immédiat sur la conformité aux lois comme le RGPD ou l'AI Act, mais ouvrant des opportunités dans les secteurs de l'IA et du développement de produits.

RechercheActu
1 source
Approfondissant notre collaboration avec le département de l'Énergie des États-Unis
2OpenAI Blog 

Approfondissant notre collaboration avec le département de l'Énergie des États-Unis

OpenAI et le Département de l'Énergie des États-Unis ont signé un mémorandum d'entente pour approfondir leur collaboration sur l'intelligence artificielle et le calcul avancé en vue de la découverte scientifique. Ce partenariat s'appuie sur des travaux en cours avec les laboratoires nationaux et vise à établir un cadre pour appliquer l'IA à la recherche à fort impact à travers l'écosystème du Département de l'Énergie.

RechercheActu
1 source
Anthropic's intelligence artificielle Claude découvre plus de 100 failles de sécurité dans Firefox
3The Decoder 

Anthropic's intelligence artificielle Claude découvre plus de 100 failles de sécurité dans Firefox

L'IA Claude d'Anthropic a découvert plus de 100 failles de sécurité dans le navigateur Firefox, y compris des bogues passés inaperçus par des décennies de tests. Cette découverte, publiée dans l'article "Anthropic's Claude AI uncovers over 100 security vulnerabilities in Firefox", souligne les capacités avancées de l'IA en matière de détection de vulnérabilités.

UEL'IA Claude d'Anthropic a identifié plus de 100 failles de sécurité dans Firefox, affectant potentiellement les utilisateurs et les entreprises françaises et européennes en mettant en danger la confidentialité et la sécurité des données, en violation potentielle du RGPD, en mettant en lumière la nécessité d'une meilleure intégration de l'IA robuste dans les processus de cybersécurité pour les développeurs de logiciels européens.

RechercheOutil
1 source
BEVal : étude d'évaluation comparative des modèles de segmentation BEV pour la conduite autonome
4arXiv cs.RO 

BEVal : étude d'évaluation comparative des modèles de segmentation BEV pour la conduite autonome

Une équipe de chercheurs a publié BEVal, une étude comparative sur les modèles de segmentation en vue aérienne (Bird's Eye View, ou BEV) appliqués à la conduite autonome. Contrairement aux travaux habituels, qui entraînent et évaluent les modèles sur un seul jeu de données, généralement nuScenes, les auteurs ont testé les performances de plusieurs modèles de l'état de l'art sur des combinaisons croisées de jeux de données : entraînement sur l'un, évaluation sur un autre. L'étude examine également l'influence du type de capteur utilisé, caméras ou LiDAR, sur la capacité des modèles à s'adapter à des environnements variés et à des catégories sémantiques différentes. Le code de l'étude est disponible en open source sur GitHub. Les résultats mettent en évidence un problème structurel dans la recherche actuelle : les modèles de segmentation BEV, très performants sur leurs données d'entraînement, chutent significativement lorsqu'ils sont confrontés à un nouvel environnement ou à une configuration de capteurs différente, un phénomène connu sous le nom de décalage de domaine. Pour les constructeurs automobiles et les entreprises de conduite autonome, cela signifie que des modèles optimisés en laboratoire peuvent se révéler peu fiables dans des conditions réelles variées. Les expériences d'entraînement sur plusieurs jeux de données menées en parallèle ont toutefois montré des améliorations notables des performances par rapport à l'entraînement sur un seul jeu, ouvrant la voie à des approches plus robustes. La segmentation BEV est une technologie clé pour la conduite autonome : elle permet aux véhicules de construire une représentation plane de leur environnement immédiat à partir de capteurs embarqués, facilitant la détection de routes, véhicules, piétons et obstacles. Le standard quasi universel de la recherche repose aujourd'hui sur nuScenes, un jeu de données développé par Motional, ce qui crée un biais de spécialisation problématique à l'échelle du secteur entier. En exposant cette fragilité et en proposant une méthodologie d'évaluation croisée rigoureuse, BEVal pousse la communauté scientifique vers des pratiques plus exigeantes, une condition indispensable avant tout déploiement massif de véhicules autonomes sur des routes réelles.

UELes constructeurs automobiles européens (Stellantis, Volkswagen, Renault) et les acteurs de la conduite autonome opérant en Europe sont concernés par cette fragilité structurelle des modèles BEV, qui remet en question la fiabilité des systèmes avant tout déploiement sur routes européennes aux conditions variées.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour