Aller au contenu principal
Databricks lance Genie Code, un agent IA pour les projets data
OutilsLe Big Data6sem

Databricks lance Genie Code, un agent IA pour les projets data

Résumé IASource uniqueImpact UE
Source originale ↗·

Databricks franchit une nouvelle étape dans l'automatisation des projets data avec le lancement de Genie Code, un agent IA conçu pour assister les ingénieurs et data scientists dans les phases les plus techniques du développement analytique. Contrairement aux assistants de code classiques, Genie Code ne se contente pas de suggérer du code : il peut analyser un problème, élaborer une stratégie en plusieurs étapes, écrire et vérifier le code, puis automatiser des tâches comme la création de pipelines, le débogage ou le déploiement de tableaux de bord.

L'outil s'intègre nativement dans l'écosystème Databricks, en exploitant le contexte stocké dans Unity Catalog — origine des données, règles de gouvernance, contrôles d'accès — pour réduire les erreurs et respecter les politiques d'entreprise déjà en place. Il couvre également le cycle de vie du machine learning : préparation d'expériences, déploiement de modèles et enregistrement des résultats dans MLflow. Une ambition qui positionne Genie Code comme un copilote bout-en-bout pour les équipes data.

Les résultats avancés par Databricks sont significatifs : sur des cas de science des données, l'utilisation de Genie Code aurait fait passer le taux de réussite de certains agents de codage de 32,1 % à 77,1 %. L'annonce s'accompagne du rachat de la startup Quotient AI, spécialisée dans l'évaluation des systèmes IA et l'apprentissage par renforcement appliqué aux agents — une technologie qui devrait permettre de mesurer en continu la qualité des réponses de Genie Code et de corriger ses régressions. Les fondateurs de Quotient AI ont notamment travaillé sur l'évaluation de systèmes de génération de code dans le cadre de GitHub Copilot.

Le vrai défi pour Databricks reste cependant la confiance des entreprises. L'étude State of Code Developer Survey 2026 de Sonar, menée auprès de plus de 1 100 développeurs, révèle que 96 % d'entre eux ne font pas entièrement confiance au code généré par l'IA — un signal fort qui rappelle que les annonces technologiques, aussi prometteuses soient-elles, se heurtent encore à des réticences profondes dans les équipes de développement professionnelles.

Impact France/UE

Les entreprises européennes utilisant Databricks peuvent bénéficier de Genie Code pour automatiser leurs pipelines de données et projets ML, avec des gains de productivité potentiellement significatifs.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Tencent confirme un projet d'agent IA WeChat pour les "tâches pratiques
1The Information AI 

Tencent confirme un projet d'agent IA WeChat pour les "tâches pratiques

Tencent prépare un agent IA intégré à WeChat, capable de gérer un large éventail de tâches quotidiennes pratiques pour ses utilisateurs. La confirmation vient de Martin Lau, président de Tencent Holdings, après une première révélation par The Information.

OutilsOutil
1 source
Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK
2The Decoder 

Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK

Google a introduit une nouvelle fonctionnalité baptisée « Agent Skill » dans son API Gemini, conçue pour combler une lacune structurelle des modèles d'IA : leur ignorance des mises à jour de leurs propres SDK survenues après leur date d'entraînement. Ce mécanisme permet au modèle d'accéder dynamiquement à une documentation à jour sur ses propres outils, améliorant significativement la qualité du code généré pour les applications qui utilisent l'API Gemini. L'impact est concret pour les développeurs : un modèle qui ne connaît pas les dernières versions d'un SDK produit du code obsolète, bogué ou incompatible. En injectant automatiquement les bonnes références au moment de la génération, Google réduit les erreurs d'intégration et accélère le développement d'agents IA — un enjeu critique alors que l'écosystème évolue plusieurs fois par mois. Ce problème de « knowledge cutoff » est universel à tous les grands modèles de langage : ChatGPT, Claude et Gemini souffrent tous d'un décalage entre leur entraînement et l'état réel du monde. La réponse de Google illustre une tendance plus large — plutôt que d'attendre le prochain cycle d'entraînement, les éditeurs construisent des couches de récupération dynamique pour maintenir les modèles à jour en temps réel sur des domaines critiques comme leurs propres API.

UELes développeurs et entreprises françaises intégrant des agents IA dans leurs produits bénéficient directement d'une réduction des erreurs d'intégration liées au knowledge cutoff des SDK.

💬 C'est un problème que je rencontre toutes les semaines en intégrant des SDK qui bougent vite. Google répond d'une façon élégante : plutôt que d'attendre le prochain cycle d'entraînement, ils injectent la doc à jour directement au moment de la génération, ce qui évite les erreurs bêtes sur des méthodes dépréciées depuis trois mois. Reste à voir si ça scale quand tous les éditeurs adoptent cette logique, mais c'est clairement la bonne direction.

OutilsOutil
1 source
3AWS ML Blog 

Évaluer les agents IA pour la production : un guide pratique de Strands Evals

Évaluer des agents IA en production est fondamentalement différent des tests logiciels classiques : les agents produisent des sorties non déterministes, prennent des décisions contextuelles et opèrent sur plusieurs tours de conversation. Strands Evals est un framework structuré conçu pour l'Agents SDK de Strands, qui utilise des LLMs comme évaluateurs pour mesurer des critères qualitatifs comme la pertinence, la cohérence et la fidélité aux sources. Il propose des évaluateurs intégrés, des outils de simulation multi-tours et des capacités de reporting pour suivre la qualité des agents de façon rigoureuse et reproductible.

OutilsOutil
1 source
4InfoQ AI 

AWS lance un registre d'agents en aperçu pour gérer la prolifération des agents IA en entreprise

Amazon Web Services a lancé Agent Registry en version préliminaire, une nouvelle fonctionnalité intégrée à Amazon Bedrock AgentCore, destinée à répondre à un problème croissant dans les grandes entreprises : la prolifération incontrôlée d'agents IA déployés en silo. Concrètement, cette solution propose un catalogue centralisé permettant de découvrir, gouverner et réutiliser des agents IA, des outils et des serveurs MCP au sein d'une même organisation, quel que soit l'endroit où ces agents s'exécutent. Le registre prend en charge nativement les protocoles MCP (Model Context Protocol) et A2A (Agent-to-Agent). Pour les équipes techniques des grandes entreprises, l'enjeu est considérable : sans inventaire central, les organisations se retrouvent avec des dizaines d'agents redondants, difficiles à auditer, à maintenir ou à faire évoluer. Agent Registry entend résoudre ce problème de gouvernance en offrant une visibilité unifiée sur l'ensemble du parc d'agents, facilitant ainsi la réutilisation des composants existants et réduisant les coûts de développement. Cette initiative s'inscrit dans une course entre les grands fournisseurs cloud pour imposer leur standard de gestion d'agents IA. Microsoft et Google Cloud proposent leurs propres solutions concurrentes, tandis que l'ACP Registry constitue une alternative indépendante. Le choix d'intégrer nativement les protocoles MCP et A2A signale la volonté d'AWS de s'aligner sur les standards émergents de l'industrie, dans un contexte où l'interopérabilité entre agents de différentes plateformes devient un critère décisif pour les entreprises qui multiplient les déploiements.

UELes grandes entreprises européennes utilisant AWS peuvent désormais centraliser la gouvernance de leurs agents IA via ce registre, facilitant l'audit et la conformité dans un contexte de multiplication des déploiements.

OutilsActu
1 source