Aller au contenu principal
Système de défense AI de Doppel arrête les attaques avant qu'elles ne se propagent
OutilsOpenAI Blog27sem

Système de défense AI de Doppel arrête les attaques avant qu'elles ne se propagent

Résumé IASource uniqueImpact UE
Source originale ↗·

Doppel utilise un système de défense basé sur l'IA, intégrant GPT-5 d'OpenAI et le fine-tuning par renforcement (RFT), pour prévenir les attaques de deepfake et d'usurpation d'identité avant qu'elles ne se propagent, réduisant ainsi le travail des analystes de 80 % et diminuant le temps de réponse aux menaces de plusieurs heures à quelques minutes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Dans l'agent de données interne d'OpenAI
1OpenAI Blog 

Dans l'agent de données interne d'OpenAI

OpenAI a développé un agent de données interne capable de traiter des ensembles de données massifs en utilisant GPT-5, Codex et une mémoire avancée pour fournir des informations fiables en quelques minutes. Ce système combine des modèles de langage et de code pour raisonner sur des données complexes et générer des analyses pertinentes rapidement.

OutilsActu
1 source
Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée
2InfoQ AI 

Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée

Anthropic a présenté une architecture expérimentale baptisée "three-agent harness", un dispositif en trois agents distincts conçu pour améliorer les workflows de développement logiciel autonome sur de longues durées. Le système dissocie trois fonctions jusqu'alors souvent mélangées dans un seul agent : la planification, la génération de code et l'évaluation des résultats. Chaque rôle est confié à un agent spécialisé, ce qui permet d'orchestrer des sessions de développement frontend et full-stack pouvant s'étendre sur plusieurs heures sans perte de cohérence. L'enjeu est considérable pour les équipes qui misent sur l'IA pour accélérer leur cycle de développement. En isolant l'évaluation dans un agent dédié, le système introduit une boucle de rétroaction itérative qui maintient la qualité du code généré même lorsque la tâche devient complexe ou que le contexte s'allonge. C'est précisément ce point de rupture, la dégradation des performances sur des tâches longues et multi-fichiers, qui freine l'adoption de l'IA en développement professionnel. Cette approche s'inscrit dans une réflexion plus large de l'industrie sur les "multi-agent systems", où la spécialisation des rôles permet de dépasser les limites d'un agent unique. Anthropic n'est pas seul sur ce terrain : OpenAI, Google DeepMind et des startups comme Cognition (Devin) explorent des architectures similaires. La publication de ce harness, accompagnée de commentaires techniques de l'industrie, suggère qu'Anthropic cherche à poser un standard méthodologique autant qu'à démontrer une capacité technique.

UELes équipes de développement européennes pourraient à terme bénéficier de cette architecture pour des workflows de codage assisté de longue durée, mais l'impact reste indirect et non immédiat.

💬 Le vrai problème sur les tâches longues, c'est que l'agent finit par se perdre entre ce qu'il planifie, ce qu'il génère et ce qu'il valide. Trois agents spécialisés avec une boucle d'évaluation dédiée, c'est la bonne architecture pour tenir sur plusieurs heures sans perdre le fil sur un projet multi-fichiers. Anthropic cherche clairement à poser un standard ici, pas juste à montrer une démo.

OutilsOutil
1 source
Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs
3VentureBeat AI 

Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs

Anthropic a présenté mardi une série de mises à jour majeures pour sa plateforme Claude Managed Agents lors de sa deuxième conférence annuelle Code with Claude, à San Francisco. La nouveauté phare s'appelle le « dreaming » : un mécanisme qui permet aux agents IA de passer en revue leurs sessions passées, d'en extraire des tendances récurrentes et de générer des notes structurées appelées « playbooks », afin de s'améliorer au fil du temps. En parallèle, deux fonctionnalités jusqu'ici expérimentales passent en bêta publique : « outcomes », qui mesure l'efficacité des agents sur des tâches concrètes, et l'orchestration multi-agents, permettant de faire travailler plusieurs instances de Claude simultanément. Les premiers résultats sont frappants : la société d'IA juridique Harvey a multiplié par six son taux de complétion de tâches après avoir intégré le dreaming ; Wisedocs, spécialisée dans la revue de documents médicaux, a réduit ses délais de traitement de 50 % grâce à outcomes ; et Netflix traite désormais les journaux de centaines de builds en parallèle via l'orchestration multi-agents. Ces annonces s'inscrivent dans un contexte de croissance exponentielle pour Anthropic. Lors d'une discussion à la conférence, le PDG Dario Amodei a révélé que la société avait enregistré au premier trimestre 2026 une croissance annualisée de 80x en revenus et en volume d'utilisation, soit huit fois supérieure aux projections internes qui tablaient sur une multiplication par dix. Le volume d'appels à l'API Claude a progressé de près de 70x en glissement annuel, et les développeurs utilisant Claude Code y consacrent en moyenne vingt heures par semaine. « Nous avions planifié pour un monde à 10x de croissance par an, et nous avons vu 80x », a déclaré Amodei, expliquant ainsi les tensions récentes sur les capacités de calcul de l'entreprise. Le dreaming se distingue volontairement des systèmes de mémoire conventionnels qu'Anthropic avait déjà lancés plus tôt cette année. Il ne modifie pas les poids du modèle sous-jacent et n'effectue aucun réentraînement : il s'agit d'un processus planifié qui analyse les historiques de sessions, identifie les erreurs récurrentes et les méthodes convergentes entre plusieurs agents, puis consigne ces enseignements sous forme de texte lisible par des humains. Alex Albert, responsable du product management recherche chez Anthropic, compare ce mécanisme à la manière dont un professionnel documente une procédure après l'avoir itérée en pratique, sauf que c'est le modèle lui-même qui effectue cette capitalisation. Toutes les mémoires produites restent inspectables et auditables, ce qui répond directement aux exigences de traçabilité des entreprises souhaitant déployer des agents IA en environnement de production.

💬 Le nom est gadget, mais le mécanisme est sérieux. Ce que fait le "dreaming", c'est transformer les erreurs d'un agent en documentation structurée, inspectable, qu'une équipe peut vérifier avant de le laisser tourner en prod, et c'est exactement le truc qui manquait pour convaincre les DSI frileux. Harvey à 6x de taux de complétion, c'est le genre de chiffre qui ouvre des budgets.

OutilsOutil
1 source
Autorité de marque et Intelligence Artificielle : l’avantage inattendu des PME
4Siècle Digital 

Autorité de marque et Intelligence Artificielle : l’avantage inattendu des PME

Pendant 20 ans, le marketing B2B s'est concentré sur le référencement SEO traditionnel, mais l'IA générative bouleverse cette approche : l'optimisation de sites et le netlinking classique ne suffisent plus pour être recommandés par les LLM. Face à ce changement, les éditeurs de logiciels et ESN doivent repenser leur stratégie d'autorité de marque. Les PME se retrouvent paradoxalement avantagées dans cette transition, car elles peuvent adapter plus rapidement leur positionnement pour être visibles auprès des moteurs de recommandation IA.

UELes PME françaises du secteur logiciel et ESN sont directement concernées par ce changement de paradigme SEO vers l'optimisation pour les moteurs de recommandation IA.

OutilsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour