Aller au contenu principal
JetBrains Central : piloter l’ère du développement agentique en entreprise
OutilsLe Big Data2h

JetBrains Central : piloter l’ère du développement agentique en entreprise

1 source couvre ce sujet·Source originale ↗·

JetBrains a annoncé JetBrains Central, une plateforme de pilotage centralisé destinée aux équipes de développement logiciel en entreprise qui adoptent l'IA agentique. Concrètement, la solution connecte les IDE, les consoles d'administration et les pipelines CI/CD dans un système unifié capable de coordonner plusieurs agents IA simultanément : Claude d'Anthropic, Gemini de Google, Codex d'OpenAI ou encore l'Assistant JetBrains natif. La plateforme intègre une console d'administration avec gestion des identités et des accès (IAM), un suivi en temps réel de chaque décision prise par les agents, ainsi qu'un système de facturation centralisé permettant de fixer des quotas de tokens par département et d'alerter ou bloquer l'exécution en cas de dépassement budgétaire.

L'enjeu est majeur pour les directions techniques qui peinent aujourd'hui à gouverner une IA de plus en plus autonome. Sans cadre structuré, les risques de fuite de données et de dépenses incontrôlées sont réels : les entreprises jonglent entre de multiples abonnements, sans visibilité sur ce que font réellement les agents dans leur base de code. JetBrains Central répond à ce problème en segmentant les permissions par projet ou par équipe, en traçant chaque commit et chaque modèle utilisé, et en transformant la conformité réglementaire en processus automatisé plutôt qu'en obstacle. Pour les secteurs régulés comme la finance ou la santé, cette traçabilité fine constitue un prérequis non négociable. L'objectif affiché est de rendre la productivité liée à l'IA mesurable en valeur métier, et non plus un coût opaque dilué dans les budgets IT.

Cette annonce s'inscrit dans un contexte de fragmentation critique des outils IA en entreprise : chaque fournisseur propose son propre agent, ses propres interfaces, ses propres modèles de tarification, rendant l'orchestration de workflows complexes particulièrement difficile. JetBrains, éditeur des IDE IntelliJ, PyCharm et WebStorm utilisés par des millions de développeurs, capitalise sur sa position centrale dans le SDLC (Software Development Life Cycle) pour imposer une couche d'orchestration neutre. La plateforme s'intègre également avec GitHub, GitLab et des IDE tiers, permettant aux agents d'intervenir directement dans les pipelines CI/CD pour corriger des bugs de build ou améliorer des scripts de déploiement. En misant sur l'ouverture multi-fournisseurs plutôt que sur un écosystème fermé, JetBrains parie que la gouvernance et l'observabilité deviendront les critères d'adoption déterminants à mesure que l'autonomie des agents IA s'accroît dans les environnements de production.

Impact France/UE

Les entreprises européennes utilisant les IDE JetBrains (très répandus en Europe) peuvent adopter cette couche de gouvernance pour répondre aux exigences de traçabilité de l'AI Act et aux contraintes des secteurs régulés comme la finance et la santé.

À lire aussi

30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais
1Le Big Data 

30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais

Google a déployé le 15 avril 2026 une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Workspace, en introduisant une trentaine de nouvelles voix IA expressives. Ces voix sont propulsées par Gemini 3.1 Flash TTS, un moteur de synthèse vocale de nouvelle génération capable d'intégrer des émotions, des pauses et des effets sonores directement dans la narration. Concrètement, les utilisateurs peuvent désormais insérer des instructions dans leur script, un mot lu avec enthousiasme, une pause marquée via une notation simple, voire un rire naturel, pour guider la performance vocale sans retouche audio manuelle. La mise à jour étend également la couverture linguistique de 8 à 24 langues, ajoutant notamment l'arabe, le bengali, l'hindi, le polonais, le thaï et le vietnamien. Le déploiement est progressif pour les comptes Google Workspace, Workspace Individual et les comptes personnels. Cette évolution répond à une limite longtemps reprochée aux outils de narration automatique : le ton uniforme et mécanique qui trahit immédiatement l'origine synthétique du contenu. Avec un panel de trente voix aux registres distincts, certaines dynamiques, d'autres pédagogiques ou posées, Google Vids permet d'adapter le style vocal au type de contenu sans effort supplémentaire. Une vidéo de formation peut désormais sonner différemment d'une présentation commerciale, ce qui réduit la fatigue auditive et renforce la crédibilité des productions. Pour les équipes qui utilisent Google Vids à grande échelle pour créer des tutoriels, des onboardings ou des communications internes, l'impact pratique est immédiat : moins de post-production, une meilleure rétention de l'audience, et une flexibilité narrative que les voix TTS classiques ne permettaient tout simplement pas. Google Vids, lancé en 2024 comme outil de création vidéo assistée par IA au sein de la suite Workspace, cherche à se positionner face à des concurrents comme HeyGen, Synthesia ou ElevenLabs qui ont fait de l'expressivité vocale leur argument central. L'intégration de Gemini 3.1 Flash TTS marque un tournant : Google dispose désormais d'un modèle capable de rivaliser sur ce terrain, en s'appuyant sur son écosystème d'entreprise déjà massivement déployé. L'ouverture à 24 langues signale aussi une ambition internationale claire, notamment vers les marchés asiatiques et du Moyen-Orient où la demande en contenu vidéo professionnel localisé est forte. La prochaine étape logique serait le clonage vocal personnalisé ou la synchronisation labiale, des fonctionnalités que plusieurs concurrents proposent déjà et que Google n'a pas encore annoncées pour Vids.

UELes équipes françaises utilisant Google Workspace bénéficient immédiatement de voix expressives en français et d'une réduction du temps de post-production pour leurs contenus vidéo internes.

OutilsOutil
1 source
BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %
2Interesting Engineering 

BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %

BMW Group a annoncé que des modèles d'intelligence artificielle développés en partenariat avec l'Université de Zagreb permettent de réduire la consommation de matériaux et le temps de production dans la fabrication de cellules de batteries de plus de 50 % sur certaines étapes du processus. Ce projet de recherche baptisé "Insight", lancé en 2024 avec le Centre régional d'excellence en technologie robotique de l'université croate, couvre l'ensemble de la chaîne de valeur : de la fabrication des électrodes aux tests de fin de ligne, en passant par le recyclage direct. Les travaux sont menés au Battery Cell Competence Centre de Munich, où BMW développe les cellules destinées aux prochaines générations de batteries haute tension pour véhicules électriques. Le système d'IA combine des résultats de tests existants avec des données de production en temps réel pour anticiper les paramètres de fabrication et les performances des cellules, réduisant ainsi le nombre et la durée des séries de tests coûteuses. L'impact potentiel est considérable pour une industrie sous pression. La mise au point de cellules de batterie exige normalement de longues séries d'essais qui mobilisent des matières premières, des lignes de production et des capacités de laboratoire. En permettant de prédire les résultats plus tôt dans le processus, l'IA de BMW pourrait accélérer significativement la montée en cadence de la production de batteries électriques tout en réduisant les coûts et les déchets industriels. Le système cible également une étape souvent négligée : après leur première charge, les cellules sont maintenues en "quarantaine", une période de stockage sous températures contrôlées avant l'assemblage final. BMW indique que ses modèles pourraient à terme éliminer cette étape, libérant de l'espace en usine et réduisant les délais de production des packs batteries. BMW concentre ses opérations sur les cellules entre trois sites bavarois : Munich pour la recherche et le développement, Parsdorf pour la production quasi-série, et Salching pour le recyclage. Le projet "Insight" implique des doctorants et étudiants croates chargés d'organiser les données de production et de construire des modèles capables de détecter des corrélations entre qualité, coûts et rendement. Christian Siedelhofer, responsable du développement technologique des cellules lithium-ion chez BMW, a précisé que l'entreprise travaille à faire passer ces modèles du prototype vers un déploiement à l'échelle de son réseau de production. Le partenariat joue aussi un rôle de vivier de talents pour attirer de futurs spécialistes en batteries et en IA. BMW n'a pas précisé quels modèles d'IA sont utilisés ni à quelle échéance un déploiement industriel complet pourrait intervenir.

UEBMW, constructeur allemand, déploie l'IA dans ses usines bavaroises en partenariat avec une université croate, renforçant potentiellement la compétitivité européenne dans la filière batterie face aux acteurs asiatiques.

OutilsActu
1 source
Simulateur d'outils : tests à grande échelle pour agents IA
3AWS ML Blog 

Simulateur d'outils : tests à grande échelle pour agents IA

Amazon Web Services a lancé ToolSimulator, un framework de simulation d'outils propulsé par des LLM, intégré au SDK Strands Evals. Disponible dès maintenant, cet outil permet aux développeurs de tester en profondeur les agents IA qui dépendent d'API externes, de bases de données ou de services MCP, sans jamais déclencher d'appels réels. Concrètement, un développeur qui teste un agent de réservation de vols peut simuler des recherches, des confirmations et des annulations avec des données réalistes et cohérentes, sans envoyer de vraie requête à une compagnie aérienne. L'installation se résume à une commande pip install strands-evals, et aucun compte AWS n'est requis pour exécuter les simulations localement. L'enjeu est considérable pour les équipes qui industrialisent des agents IA. Tester contre des API en production expose des données personnelles, risque de déclencher des actions irréversibles comme l'envoi d'e-mails ou la modification de bases de données, et se heurte aux limites de débit qui rendent impraticable le passage à l'échelle sur des centaines de scénarios de test. Les mocks statiques, l'alternative habituelle, s'avèrent insuffisants dès qu'un agent enchaîne plusieurs appels dont le deuxième dépend de l'état laissé par le premier. ToolSimulator résout ce problème en maintenant un état partagé cohérent entre les appels successifs : une écriture affecte les lectures suivantes, exactement comme dans un système réel. Les schémas de réponse peuvent être imposés via des modèles Pydantic, ce qui garantit la validité structurelle des sorties simulées et permet de détecter les bugs d'intégration tôt dans le cycle de développement. Ce lancement s'inscrit dans la montée en maturité de l'outillage autour des agents IA autonomes, un segment en pleine explosion depuis l'essor des modèles capables d'utiliser des outils externes. AWS positionne Strands Evals comme une réponse aux besoins des équipes qui passent du prototype à la production : l'absence de cadre de test robuste est aujourd'hui l'un des principaux freins à ce passage. ToolSimulator rejoint un écosystème d'évaluation d'agents qui comprend déjà des solutions comme LangSmith d'Anthropic ou les environnements de sandbox d'OpenAI, mais mise sur l'intégration native avec le SDK Strands et la génération adaptative de réponses par LLM plutôt que sur des templates figés. La prochaine étape naturelle sera d'étendre ces capacités aux workflows MCP complexes et aux agents multi-modaux, à mesure que les cas d'usage en production se diversifient.

OutilsOutil
1 source
Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer
4The Verge AI 

Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer

Epic Games a annoncé le lancement d'un nouvel outil appelé "conversations" pour les créateurs de contenu Fortnite, permettant d'intégrer des personnages non-joueurs (PNJ) propulsés par intelligence artificielle dans les îles personnalisées. Contrairement aux arbres de dialogue traditionnels, ces PNJ peuvent désormais interagir de manière spontanée avec les joueurs, en jouant par exemple le rôle d'un donneur de quêtes ou d'un narrateur. Les créateurs définissent la personnalité du personnage via des prompts simples, choisissent une voix, et le système gère ensuite les échanges en temps réel. Cette fonctionnalité marque une évolution significative dans la création de jeux au sein de l'écosystème Fortnite, en rendant accessible à tous les créateurs une technologie d'IA conversationnelle jusqu'ici réservée à des productions à gros budget. Elle pourrait transformer la profondeur narrative des expériences créées par la communauté, sans nécessiter de compétences en programmation avancées. Toutefois, Epic impose des règles strictes d'utilisation : les personnages ne peuvent pas être configurés pour entretenir des relations romantiques ou simuler une connexion émotionnelle avec les joueurs. Cette initiative intervient quelques mois après qu'Epic a intégré un Darth Vader alimenté par IA dans Fortnite, un personnage qui avait défrayé la chronique en prononçant des jurons avec une voix recréant celle de James Earl Jones. Le géant du jeu vidéo s'inscrit ainsi dans une tendance de fond où les grands studios cherchent à démocratiser l'IA générative pour les créateurs tiers, tout en établissant des garde-fous éthiques pour éviter les dérives, notamment auprès d'un public jeune.

OutilsOutil
1 source