Aller au contenu principal
Cette IA peut créer de nouveaux génomes
RechercheSciences et Avenir Tech1h

Cette IA peut créer de nouveaux génomes

1 source couvre ce sujet·Source originale ↗·

Evo 2 est un modèle d'IA générative développé par l'Arc Institute en collaboration avec NVIDIA, entraîné sur 9,3 trillions de nucléotides provenant de plus de 128 000 organismes. Capable de lire, comprendre et reproduire le langage génétique, il peut désormais générer des séquences d'ADN entièrement nouvelles — des génomes fonctionnels qui n'existent pas dans la nature — avec une précision sans précédent à l'échelle du génome complet.

Cette capacité représente un tournant pour la biologie de synthèse et la médecine. Concevoir des génomes sur mesure ouvre la voie à la création de micro-organismes capables de produire des médicaments, décomposer des polluants ou synthétiser des matériaux biologiques complexes. Pour la recherche médicale, cela accélère potentiellement la découverte de thérapies géniques ciblées, en permettant aux chercheurs d'explorer des espaces génétiques que l'évolution naturelle n'a jamais atteints.

Ce développement s'inscrit dans une vague de modèles de fondation biologiques — après AlphaFold pour les protéines, l'IA s'attaque désormais à l'ADN lui-même. La course implique des acteurs comme Google DeepMind, Genentech et plusieurs startups de biotech computationnelle. Les enjeux éthiques sont considérables : la capacité de synthétiser des génomes inédits soulève des questions de biosécurité qui poussent déjà régulateurs et scientifiques à débattre de cadres de gouvernance adaptés.

Impact France/UE

Les enjeux de biosécurité soulevés par la synthèse de génomes inédits poussent déjà les régulateurs européens à envisager des cadres de gouvernance spécifiques, potentiellement intégrés à l'AI Act ou à la législation biotech de l'UE.

À lire aussi

Salesforce publie VoiceAgentRAG : un routeur mémoire à deux agents qui réduit la latence de récupération RAG vocale de 316x
1MarkTechPost 

Salesforce publie VoiceAgentRAG : un routeur mémoire à deux agents qui réduit la latence de récupération RAG vocale de 316x

Salesforce AI Research a publié VoiceAgentRAG, une architecture open source à double agent conçue pour résoudre l'un des problèmes les plus critiques des assistants vocaux : la latence de récupération des données. Dans un système RAG (Retrieval-Augmented Generation) classique, chaque requête vers une base vectorielle distante introduit entre 50 et 300 millisecondes de délai réseau — un délai qui, pour la voix, consume la totalité du budget disponible avant même que le modèle de langage commence à générer une réponse. VoiceAgentRAG réduit ce délai de récupération de 316 fois, passant de 110 ms à 0,35 ms, grâce à un cache sémantique local. Sur 200 requêtes testées avec Qdrant Cloud comme base vectorielle distante, le système atteint un taux de cache hit global de 75 % (79 % sur les tours de conversation où le cache est déjà chaud), économisant 16,5 secondes de temps de récupération au total. Ce gain de performance change fondamentalement ce qui est possible dans les interfaces vocales alimentées par l'IA. Maintenir une conversation naturelle exige une réponse en moins de 200 millisecondes — contrainte que les systèmes RAG standards ne peuvent pas respecter en production. En découplant la récupération des documents de la génération de réponse, VoiceAgentRAG permet aux agents vocaux d'accéder à une base de connaissances étendue sans sacrifier la fluidité conversationnelle. L'architecture est compatible avec les principaux fournisseurs LLM (OpenAI, Anthropic, Gemini, Ollama) et les systèmes d'embedding courants, ce qui facilite son intégration dans des stacks existants. Les scénarios de conversation thématiquement cohérents, comme la comparaison de fonctionnalités, atteignent jusqu'à 95 % de cache hit ; les scénarios plus volatils descendent à 45-55 %. L'architecture repose sur deux agents parallèles coordonnés par un bus d'événements asynchrone. Le « Fast Talker » gère le chemin critique : il interroge d'abord un cache FAISS en mémoire, et ne fait appel à la base distante qu'en cas d'échec, avant de mettre le résultat en cache pour les tours suivants. Le « Slow Thinker » opère en arrière-plan : il analyse une fenêtre glissante des six derniers tours de conversation pour anticiper trois à cinq sujets probables et pré-charger les documents correspondants avant que l'utilisateur ne pose sa prochaine question. Une subtilité technique notable : le Slow Thinker génère des descriptions stylistiquement proches des documents sources plutôt que des questions, alignant ainsi les embeddings de prédiction sur ceux des textes réels dans la base. Le cache utilise un seuil de similarité cosinus de 0,40 pour les correspondances et une politique d'éviction LRU avec une durée de vie de 300 secondes. Publié en open source sur arXiv (2603.02206), VoiceAgentRAG marque une étape concrète vers des agents vocaux capables de raisonner sur des bases documentaires larges en temps réel.

RecherchePaper
1 source
IMITATION LEARNING : définition, fonctionnement et cas d’usage en intelligence artificielle
2FrenchWeb 

IMITATION LEARNING : définition, fonctionnement et cas d’usage en intelligence artificielle

L'apprentissage par imitation — imitation learning en anglais — s'impose comme l'un des paradigmes les plus prometteurs de l'intelligence artificielle appliquée, notamment dans la robotique et les systèmes autonomes. Contrairement au reinforcement learning classique, qui oblige un agent à explorer son environnement par essais-erreurs en accumulant récompenses et pénalités, l'imitation learning repose sur un principe radicalement différent : un modèle apprend en observant des démonstrations réalisées par un expert humain ou un autre système. Deux grandes variantes coexistent — le clonage comportemental, qui imite directement les actions observées, et l'apprentissage inverse par renforcement, qui tente d'inférer la fonction de récompense sous-jacente au comportement de l'expert. L'impact concret est significatif dans les domaines où définir une fonction de récompense explicite reste difficile ou coûteux. En robotique industrielle, des bras manipulateurs apprennent à effectuer des tâches de précision — assemblage, tri, chirurgie assistée — à partir de quelques démonstrations humaines, sans programmer chaque geste manuellement. Dans les véhicules autonomes, des systèmes comme ceux de Waymo ou Tesla intègrent des mécanismes proches pour capturer des comportements de conduite complexes directement depuis des données réelles. Cette approche s'inscrit dans un mouvement plus large vers des IA capables d'acquérir des compétences sans supervision dense. Des laboratoires comme DeepMind, OpenAI ou le CNRS explorent activement ses limites, notamment le problème de distribution shift — le modèle échoue dès qu'il rencontre une situation hors du corpus d'imitation. Des hybrides combinant imitation learning et reinforcement learning, comme DAgger, cherchent à dépasser cette fragilité fondamentale.

UELe CNRS est cité parmi les laboratoires qui explorent activement l'imitation learning, positionnant la recherche française dans ce paradigme émergent.

RecherchePaper
1 source
IA : LeWorldModel (LeWM) veut révolutionner la planification avec un modèle 48 fois plus rapide sur un seul GPU
3ZDNET FR 

IA : LeWorldModel (LeWM) veut révolutionner la planification avec un modèle 48 fois plus rapide sur un seul GPU

Je n'ai pas accès à la recherche web ici. Collez le texte complet de l'article et je le résume immédiatement.

RecherchePaper
1 source
A-Evolve : l'équivalent PyTorch pour les systèmes d'agents autonomes, remplaçant le réglage manuel par la mutation d'état automatisée et l'auto-correction
4MarkTechPost 

A-Evolve : l'équivalent PyTorch pour les systèmes d'agents autonomes, remplaçant le réglage manuel par la mutation d'état automatisée et l'auto-correction

Une équipe de chercheurs affiliés à Amazon a publié A-Evolve, une infrastructure universelle conçue pour automatiser le développement d'agents IA autonomes. Le framework repose sur un moteur de mutation qui modifie directement les fichiers de configuration, les prompts et le code d'un agent — regroupés dans une structure appelée Agent Workspace — pour en améliorer les performances de façon itérative, sans intervention humaine. Le cycle de fonctionnement s'articule en cinq étapes : l'agent tente une tâche, le système observe les résultats, un moteur d'évolution identifie les points de défaillance et modifie les fichiers, un module de validation vérifie qu'aucune régression n'est introduite, puis l'agent redémarre avec le workspace mis à jour. Chaque mutation est taguée sous Git (evo-1, evo-2…) pour permettre un rollback automatique si nécessaire. Les tests initiaux ont été conduits sur des modèles de la série Claude d'Anthropic, sur des benchmarks exigeants dont SWE-bench, le standard de référence pour évaluer la résolution autonome de tickets GitHub. L'enjeu est de taille : aujourd'hui, construire un agent IA performant exige un travail manuel intensif. Quand un agent échoue sur une tâche, l'ingénieur doit inspecter les logs, diagnostiquer la logique défaillante, réécrire les prompts et recommencer — un cycle chronophage qui freine le passage à l'échelle. A-Evolve automatise précisément cette boucle, ce que ses créateurs comparent à l'impact qu'a eu PyTorch sur le deep learning en 2016 : PyTorch avait éliminé le calcul manuel des gradients et démocratisé l'entraînement de réseaux de neurones ; A-Evolve ambitionne de faire de même pour la conception d'agents, en remplaçant le tuning artisanal par un processus systématique et reproductible. Pour les équipes d'ingénierie IA en entreprise, cela pourrait réduire drastiquement le temps de développement et permettre de déployer des agents spécialisés dans des domaines variés sans expertise pointue à chaque itération. Le projet s'inscrit dans une course plus large à l'automatisation de l'automatisation elle-même — ce que la communauté appelle parfois le "méta-apprentissage" ou l'auto-amélioration des systèmes IA. Amazon n'est pas seul sur ce terrain : OpenAI, DeepMind et plusieurs startups explorent des approches similaires d'optimisation automatique d'agents. Ce qui distingue A-Evolve est son architecture modulaire de type "Bring Your Own" : l'utilisateur peut brancher n'importe quelle architecture d'agent (ReAct, multi-agent), n'importe quel environnement d'exécution (sandbox de code, CLI cloud) et n'importe quel algorithme d'évolution (mutation pilotée par LLM ou par renforcement). Le code est disponible sur GitHub sous le compte A-EVO-Lab. La vraie question reste celle de la généralisation : les gains de performance observés sur SWE-bench se traduiront-ils sur des tâches métier réelles, moins standardisées ? C'est le prochain test que l'industrie imposera à ce type de framework.

💬 La comparaison avec PyTorch, c'est gonflé, mais pas complètement faux. Automatiser la boucle debug-réécriture-test sur des agents, c'est exactement ce qui bloque la mise à l'échelle aujourd'hui, et le fait que ça soit testé sur SWE-bench avec Claude donne du crédit. La vraie question c'est si ça tient sur des tâches métier réelles, moins propres qu'un benchmark standard.

RecherchePaper
1 source