Aller au contenu principal
OutilsLe Big Data5h

Au-delà du Copilot : Classiq invente l’ingénieur quantique virtuel

Résumé IASource uniqueImpact UE
Source originale ↗·

La start-up israélienne Classiq vient de franchir une étape significative dans la démocratisation du calcul quantique en intégrant un agent d'intelligence artificielle générative au coeur de sa plateforme de développement. Concrètement, cet outil permet à un responsable technique ou à un ingénieur métier de décrire un problème en langage naturel, en français ou en anglais, et d'obtenir en retour une architecture logicielle quantique compilable. L'agent ne se contente pas de générer du texte : il synthétise du code en tenant compte des contraintes physiques réelles des processeurs quantiques actuels, garantissant ainsi que les programmes produits sont réellement exécutables et non de simples ébauches conceptuelles. Nir Minerbi, fondateur et PDG de Classiq, présente cet outil comme une passerelle directe entre les problématiques concrètes des entreprises et les actifs numériques exploitables sur les machines de demain.

L'enjeu est considérable pour des secteurs comme la finance quantitative, la chimie computationnelle ou la conception de nouveaux matériaux, où la rapidité d'itération conditionne l'avantage concurrentiel. Jusqu'ici, programmer pour un ordinateur quantique exigeait une maîtrise pointue de la physique des qubits, un profil rare et coûteux que peu d'entreprises pouvaient s'offrir à grande échelle. En automatisant l'intégralité du cycle de développement, de la traduction du besoin métier jusqu'à l'optimisation des circuits, Classiq libère les équipes des tâches de «tuyauterie» complexe et leur permet de concentrer leurs efforts sur la valeur ajoutée. Pour les directions informatiques, c'est aussi l'assurance d'un investissement durable : le code généré s'adapte aux évolutions matérielles sans devenir obsolète à chaque mise à jour des processeurs.

L'adoption du calcul quantique par les grandes entreprises bute depuis des années sur un double obstacle : la rareté des experts capables d'écrire des algorithmes quantiques, et la fragmentation d'un écosystème où chaque génération de machines impose de réécrire le code from scratch. Plusieurs acteurs, dont IBM, Google et IonQ, investissent massivement pour abaisser cette barrière d'entrée, mais l'approche de Classiq se distingue en ciblant explicitement la couche de développement logiciel plutôt que le matériel. En structurant la connaissance quantique dans des bibliothèques réutilisables gérées par des agents experts, la start-up entend faire entrer ce calcul de haute performance dans les flux de travail industriels standard. Si la promesse se confirme en production, cette démarche pourrait accélérer significativement le moment où le quantique cesse d'être un sujet de laboratoire pour devenir un outil opérationnel dans les entreprises.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !
1Le Big Data 

NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !

NVIDIA a publié le 15 avril 2026 Lyra 2.0, un nouveau framework de recherche capable de générer des environnements 3D persistants et explorables à grande échelle. Développé par NVIDIA Research, cet outil repose sur une génération vidéo 3D guidée par une caméra virtuelle : le système reconstruit progressivement la structure volumétrique d'une scène à partir de séquences d'images, transformant chaque mouvement de caméra en matière tridimensionnelle exploitable. La particularité centrale est la persistance géométrique, chaque zone visitée est mémorisée par image, ce qui permet de revenir en arrière sans que le système réinvente les détails disparus de son champ de vue. Lyra 2.0 intègre également un mécanisme de correction de la dérive temporelle, un phénomène qui dégradait les scènes générées sur la durée dans les approches précédentes. Les scènes produites peuvent être exportées en Gaussian Splatting, une technique de rendu rapide basée sur des points lumineux, et intégrées à des simulateurs comme Isaac Sim. L'impact concret de Lyra 2.0 touche plusieurs industries simultanément. Pour les studios de jeu vidéo et les équipes de production 3D, la technologie court-circuite une partie du pipeline traditionnel de modélisation : au lieu de construire manuellement des environnements, on les traverse pendant leur génération automatique. Pour la robotique et l'IA embarquée, les environnements générés deviennent des terrains d'entraînement réalistes, permettant de tester des agents intelligents dans des conditions proches du monde réel sans coûteuses captures physiques. La reconstruction feed-forward, qui transforme une vidéo en structure 3D sans étape manuelle lourde, ouvre la voie à une production de données synthétiques à une échelle difficile à atteindre jusqu'ici. C'est ce double usage, création visuelle et simulation opérationnelle, qui distingue Lyra 2.0 des outils de génération vidéo classiques. La sortie de Lyra 2.0 intervient dans un contexte de compétition intense autour des mondes 3D génératifs. NVIDIA a publié le code source le 15 avril 2026, soit un jour seulement après que World Labs a lancé Spark 2.0, son propre système concurrent. Ce calendrier serré illustre la course que se livrent les grands acteurs de l'IA pour imposer leurs standards dans ce segment émergent. NVIDIA part avec un avantage structurel : son écosystème logiciel, Isaac Sim, Gaussian Splatting, les GPU omniprésents dans les datacenters, lui permet d'intégrer Lyra 2.0 dans des workflows industriels existants dès le départ. Les prochaines étapes attendues concernent l'amélioration de la résolution des scènes générées, la gestion des environnements extérieurs complexes, et l'intégration plus poussée avec les pipelines de simulation robotique où NVIDIA investit massivement depuis plusieurs années.

UELes studios de jeux vidéo et équipes de robotique européens peuvent adopter ce framework open source pour accélérer leur pipeline de création 3D et générer des données d'entraînement synthétiques sans captures physiques coûteuses.

OutilsPaper
1 source
Vanguard construit une infrastructure de données pour son analyste virtuel IA
2AWS ML Blog 

Vanguard construit une infrastructure de données pour son analyste virtuel IA

Vanguard, l'une des plus grandes sociétés de gestion d'actifs au monde avec plus de 8 000 milliards de dollars sous gestion, a développé un outil interne baptisé « Virtual Analyst » pour permettre à ses analystes financiers d'interroger des données complexes en langage naturel. Avant ce projet, obtenir une réponse à une question pourtant simple nécessitait de rédiger des requêtes SQL sophistiquées et de solliciter les équipes data, un processus qui pouvait s'étaler sur plusieurs jours. Désormais, les analystes et parties prenantes métier accèdent directement aux données en quelques secondes, sans expertise technique préalable. L'infrastructure repose sur plusieurs services AWS : Amazon Bedrock pour les modèles de langage assurant la compréhension du langage naturel, Amazon Redshift pour l'analytique avancée, et AWS Glue pour le catalogage automatisé des données. Vanguard a formulé huit principes directeurs pour construire ce qu'ils nomment une infrastructure de données « AI-ready ». La principale leçon du projet dépasse le simple cas d'usage : déployer de l'IA conversationnelle dans une entreprise n'est pas d'abord un défi de machine learning, mais un défi d'architecture de données. Les modèles de fondation les plus puissants ne peuvent pas compenser une infrastructure sémantique défaillante. Vanguard a donc restructuré la façon dont ses équipes définissent, possèdent et maintiennent les données, en établissant des standards de qualité, des définitions sémantiques claires pour chaque métrique financière, et des modèles de gouvernance partagés. Pour les utilisateurs finaux, le gain est immédiat : l'accès à l'information pour la prise de décision n'est plus conditionné par la disponibilité d'une équipe technique. Pour l'industrie financière, c'est une démonstration concrète qu'une infrastructure réglementée et sensible peut être rendue compatible avec l'IA générative, à condition d'y consacrer le travail fondamental en amont. Le projet a nécessité de briser des silos organisationnels profondément ancrés. Vanguard a réuni des ingénieurs data, des analystes métier, des équipes de conformité réglementaire, de sécurité et des utilisateurs finaux dans un modèle opérationnel transversal inédit pour la firme. La conformité et la sécurité, souvent perçues comme des freins à l'innovation dans les services financiers, ont été intégrées dès la conception plutôt qu'ajoutées après coup, ce qui a permis de respecter les exigences strictes du secteur. Ce projet s'inscrit dans une tendance plus large : les grandes institutions financières, Vanguard, JPMorgan, BlackRock, investissent massivement dans des couches de données sémantiques pour rendre leurs systèmes historiques compatibles avec l'IA. Le Virtual Analyst de Vanguard est présenté comme un modèle illustratif plutôt que prescriptif, mais il offre un cadre concret à toute organisation confrontée au même problème : comment transformer des décennies de données métier en une ressource exploitable par l'IA sans sacrifier la fiabilité ni la conformité.

UECe cas d'usage illustre une tendance applicable aux institutions financières européennes souhaitant rendre compatibles leurs systèmes legacy avec l'IA générative, sans impact direct sur la réglementation ou les acteurs français.

OutilsOpinion
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
3Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

OutilsOutil
1 source
JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel
4MarkTechPost 

JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel

La communauté open source openJiuwen a publié une nouvelle version de JiuwenClaw intégrant une fonctionnalité appelée AgentTeam, qui introduit un concept inédit baptisé "Coordination Engineering". L'idée : faire travailler plusieurs agents d'intelligence artificielle ensemble comme une équipe humaine soudée, capable de se répartir les tâches, de communiquer entre eux et de livrer un résultat complexe sans aucune intervention humaine. La démonstration la plus frappante de cette capacité a été réalisée lors de tests internes : le système a produit une présentation technique de 200 diapositives, structurée et logiquement cohérente, en moins de 20 minutes. Pour ce faire, un agent "Leader" a décomposé le sujet en dix axes d'analyse, confié chaque axe à un agent dédié chargé de générer 20 slides, puis fusionné l'ensemble sous une thématique unifiée. Ce type de collaboration multi-agents représente un franchissement de cap significatif dans la conception des systèmes d'IA autonomes. Jusqu'ici, la plupart des architectures d'agents reposaient sur un pilotage humain constant ou sur des pipelines rigides et préprogrammés. Avec AgentTeam, la coordination devient dynamique : le Leader construit l'équipe selon les besoins du projet, peut ajouter ou retirer des membres en cours d'exécution, et chaque agent revendique ses tâches de manière proactive sur un tableau de bord partagé. Les dépendances entre tâches sont gérées automatiquement, et un mécanisme de récupération sur incident prend en charge les pannes sans intervention extérieure. Pour les entreprises cherchant à automatiser des processus de production de contenu, d'analyse ou de développement logiciel, ce niveau d'autonomie organisationnelle pourrait réduire considérablement le besoin de supervision humaine. Ce développement s'inscrit dans une tendance plus large de l'industrie de l'IA vers les systèmes multi-agents, où des acteurs comme OpenAI, Anthropic ou des projets open source concurrents explorent des architectures permettant à plusieurs LLMs de collaborer. JiuwenClaw se distingue en formalisant trois mécanismes techniques précis : une hiérarchie Leader/Teammates avec planification dynamique, un espace de fichiers partagé accessible à tous les agents de l'équipe, et un système de validation à deux niveaux où le Leader doit approuver les plans d'exécution sensibles avant leur mise en oeuvre. Le projet est disponible en open source sur GitHub. La prochaine étape pour l'écosystème sera de déterminer si cette approche tient à plus grande échelle, avec des équipes d'agents plus nombreuses, des tâches plus longues, et des environnements moins contrôlés que les démonstrations actuelles.

OutilsOutil
1 source