Aller au contenu principal
BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %
OutilsInteresting Engineering2h

BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %

1 source couvre ce sujet·Source originale ↗·

BMW Group a annoncé que des modèles d'intelligence artificielle développés en partenariat avec l'Université de Zagreb permettent de réduire la consommation de matériaux et le temps de production dans la fabrication de cellules de batteries de plus de 50 % sur certaines étapes du processus. Ce projet de recherche baptisé "Insight", lancé en 2024 avec le Centre régional d'excellence en technologie robotique de l'université croate, couvre l'ensemble de la chaîne de valeur : de la fabrication des électrodes aux tests de fin de ligne, en passant par le recyclage direct. Les travaux sont menés au Battery Cell Competence Centre de Munich, où BMW développe les cellules destinées aux prochaines générations de batteries haute tension pour véhicules électriques. Le système d'IA combine des résultats de tests existants avec des données de production en temps réel pour anticiper les paramètres de fabrication et les performances des cellules, réduisant ainsi le nombre et la durée des séries de tests coûteuses.

L'impact potentiel est considérable pour une industrie sous pression. La mise au point de cellules de batterie exige normalement de longues séries d'essais qui mobilisent des matières premières, des lignes de production et des capacités de laboratoire. En permettant de prédire les résultats plus tôt dans le processus, l'IA de BMW pourrait accélérer significativement la montée en cadence de la production de batteries électriques tout en réduisant les coûts et les déchets industriels. Le système cible également une étape souvent négligée : après leur première charge, les cellules sont maintenues en "quarantaine", une période de stockage sous températures contrôlées avant l'assemblage final. BMW indique que ses modèles pourraient à terme éliminer cette étape, libérant de l'espace en usine et réduisant les délais de production des packs batteries.

BMW concentre ses opérations sur les cellules entre trois sites bavarois : Munich pour la recherche et le développement, Parsdorf pour la production quasi-série, et Salching pour le recyclage. Le projet "Insight" implique des doctorants et étudiants croates chargés d'organiser les données de production et de construire des modèles capables de détecter des corrélations entre qualité, coûts et rendement. Christian Siedelhofer, responsable du développement technologique des cellules lithium-ion chez BMW, a précisé que l'entreprise travaille à faire passer ces modèles du prototype vers un déploiement à l'échelle de son réseau de production. Le partenariat joue aussi un rôle de vivier de talents pour attirer de futurs spécialistes en batteries et en IA. BMW n'a pas précisé quels modèles d'IA sont utilisés ni à quelle échéance un déploiement industriel complet pourrait intervenir.

Impact France/UE

BMW, constructeur allemand, déploie l'IA dans ses usines bavaroises en partenariat avec une université croate, renforçant potentiellement la compétitivité européenne dans la filière batterie face aux acteurs asiatiques.

À lire aussi

30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais
1Le Big Data 

30 voix, des émotions, des soupirs… Google Vids vient de rendre l’IA plus humaine que jamais

Google a déployé le 15 avril 2026 une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Workspace, en introduisant une trentaine de nouvelles voix IA expressives. Ces voix sont propulsées par Gemini 3.1 Flash TTS, un moteur de synthèse vocale de nouvelle génération capable d'intégrer des émotions, des pauses et des effets sonores directement dans la narration. Concrètement, les utilisateurs peuvent désormais insérer des instructions dans leur script, un mot lu avec enthousiasme, une pause marquée via une notation simple, voire un rire naturel, pour guider la performance vocale sans retouche audio manuelle. La mise à jour étend également la couverture linguistique de 8 à 24 langues, ajoutant notamment l'arabe, le bengali, l'hindi, le polonais, le thaï et le vietnamien. Le déploiement est progressif pour les comptes Google Workspace, Workspace Individual et les comptes personnels. Cette évolution répond à une limite longtemps reprochée aux outils de narration automatique : le ton uniforme et mécanique qui trahit immédiatement l'origine synthétique du contenu. Avec un panel de trente voix aux registres distincts, certaines dynamiques, d'autres pédagogiques ou posées, Google Vids permet d'adapter le style vocal au type de contenu sans effort supplémentaire. Une vidéo de formation peut désormais sonner différemment d'une présentation commerciale, ce qui réduit la fatigue auditive et renforce la crédibilité des productions. Pour les équipes qui utilisent Google Vids à grande échelle pour créer des tutoriels, des onboardings ou des communications internes, l'impact pratique est immédiat : moins de post-production, une meilleure rétention de l'audience, et une flexibilité narrative que les voix TTS classiques ne permettaient tout simplement pas. Google Vids, lancé en 2024 comme outil de création vidéo assistée par IA au sein de la suite Workspace, cherche à se positionner face à des concurrents comme HeyGen, Synthesia ou ElevenLabs qui ont fait de l'expressivité vocale leur argument central. L'intégration de Gemini 3.1 Flash TTS marque un tournant : Google dispose désormais d'un modèle capable de rivaliser sur ce terrain, en s'appuyant sur son écosystème d'entreprise déjà massivement déployé. L'ouverture à 24 langues signale aussi une ambition internationale claire, notamment vers les marchés asiatiques et du Moyen-Orient où la demande en contenu vidéo professionnel localisé est forte. La prochaine étape logique serait le clonage vocal personnalisé ou la synchronisation labiale, des fonctionnalités que plusieurs concurrents proposent déjà et que Google n'a pas encore annoncées pour Vids.

UELes équipes françaises utilisant Google Workspace bénéficient immédiatement de voix expressives en français et d'une réduction du temps de post-production pour leurs contenus vidéo internes.

OutilsOutil
1 source
Simulateur d'outils : tests à grande échelle pour agents IA
2AWS ML Blog 

Simulateur d'outils : tests à grande échelle pour agents IA

Amazon Web Services a lancé ToolSimulator, un framework de simulation d'outils propulsé par des LLM, intégré au SDK Strands Evals. Disponible dès maintenant, cet outil permet aux développeurs de tester en profondeur les agents IA qui dépendent d'API externes, de bases de données ou de services MCP, sans jamais déclencher d'appels réels. Concrètement, un développeur qui teste un agent de réservation de vols peut simuler des recherches, des confirmations et des annulations avec des données réalistes et cohérentes, sans envoyer de vraie requête à une compagnie aérienne. L'installation se résume à une commande pip install strands-evals, et aucun compte AWS n'est requis pour exécuter les simulations localement. L'enjeu est considérable pour les équipes qui industrialisent des agents IA. Tester contre des API en production expose des données personnelles, risque de déclencher des actions irréversibles comme l'envoi d'e-mails ou la modification de bases de données, et se heurte aux limites de débit qui rendent impraticable le passage à l'échelle sur des centaines de scénarios de test. Les mocks statiques, l'alternative habituelle, s'avèrent insuffisants dès qu'un agent enchaîne plusieurs appels dont le deuxième dépend de l'état laissé par le premier. ToolSimulator résout ce problème en maintenant un état partagé cohérent entre les appels successifs : une écriture affecte les lectures suivantes, exactement comme dans un système réel. Les schémas de réponse peuvent être imposés via des modèles Pydantic, ce qui garantit la validité structurelle des sorties simulées et permet de détecter les bugs d'intégration tôt dans le cycle de développement. Ce lancement s'inscrit dans la montée en maturité de l'outillage autour des agents IA autonomes, un segment en pleine explosion depuis l'essor des modèles capables d'utiliser des outils externes. AWS positionne Strands Evals comme une réponse aux besoins des équipes qui passent du prototype à la production : l'absence de cadre de test robuste est aujourd'hui l'un des principaux freins à ce passage. ToolSimulator rejoint un écosystème d'évaluation d'agents qui comprend déjà des solutions comme LangSmith d'Anthropic ou les environnements de sandbox d'OpenAI, mais mise sur l'intégration native avec le SDK Strands et la génération adaptative de réponses par LLM plutôt que sur des templates figés. La prochaine étape naturelle sera d'étendre ces capacités aux workflows MCP complexes et aux agents multi-modaux, à mesure que les cas d'usage en production se diversifient.

OutilsOutil
1 source
Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer
3The Verge AI 

Les développeurs Fortnite peuvent désormais créer des personnages IA, mais pas les draguer

Epic Games a annoncé le lancement d'un nouvel outil appelé "conversations" pour les créateurs de contenu Fortnite, permettant d'intégrer des personnages non-joueurs (PNJ) propulsés par intelligence artificielle dans les îles personnalisées. Contrairement aux arbres de dialogue traditionnels, ces PNJ peuvent désormais interagir de manière spontanée avec les joueurs, en jouant par exemple le rôle d'un donneur de quêtes ou d'un narrateur. Les créateurs définissent la personnalité du personnage via des prompts simples, choisissent une voix, et le système gère ensuite les échanges en temps réel. Cette fonctionnalité marque une évolution significative dans la création de jeux au sein de l'écosystème Fortnite, en rendant accessible à tous les créateurs une technologie d'IA conversationnelle jusqu'ici réservée à des productions à gros budget. Elle pourrait transformer la profondeur narrative des expériences créées par la communauté, sans nécessiter de compétences en programmation avancées. Toutefois, Epic impose des règles strictes d'utilisation : les personnages ne peuvent pas être configurés pour entretenir des relations romantiques ou simuler une connexion émotionnelle avec les joueurs. Cette initiative intervient quelques mois après qu'Epic a intégré un Darth Vader alimenté par IA dans Fortnite, un personnage qui avait défrayé la chronique en prononçant des jurons avec une voix recréant celle de James Earl Jones. Le géant du jeu vidéo s'inscrit ainsi dans une tendance de fond où les grands studios cherchent à démocratiser l'IA générative pour les créateurs tiers, tout en établissant des garde-fous éthiques pour éviter les dérives, notamment auprès d'un public jeune.

OutilsOutil
1 source
Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic
4AWS ML Blog 

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic

Amazon a présenté une architecture complète pour construire des systèmes de commande vocale omnicanaux en s'appuyant sur deux de ses services cloud : Amazon Bedrock AgentCore, une plateforme dédiée au déploiement d'agents IA en production, et Amazon Nova 2 Sonic, un modèle de fondation speech-to-speech disponible via Amazon Bedrock. La solution permet à une application de traiter des commandes vocales en temps réel sur plusieurs points de contact simultanément, application mobile, site web et interface vocale, tout en maintenant le contexte conversationnel entre les échanges. L'infrastructure s'appuie sur AWS CDK pour le déploiement, le protocole MCP (Model Context Protocol) pour connecter l'agent IA aux services métier, et une série de services managés : Amazon Cognito pour l'authentification OAuth 2.0, API Gateway pour exposer les endpoints REST, AWS Lambda pour la logique métier, DynamoDB pour le stockage des profils et commandes, et AWS Location Services pour les recommandations géolocalisées de points de retrait. L'intérêt principal de cette architecture réside dans sa capacité à isoler chaque composant pour les faire évoluer indépendamment. AgentCore Runtime exécute chaque session utilisateur dans une microVM isolée, ce qui garantit qu'un pic de charge sur une session n'affecte pas les autres, un problème classique des systèmes vocaux en production. Le MCP standardise la communication entre l'agent et les services backend, ce qui permet de modifier ou d'étendre la logique métier sans réécrire le code d'intégration. Pour les équipes qui construisent des expériences de commande vocale à grande échelle, restauration rapide, retail, logistique, cette séparation claire entre la couche IA, le frontend et le backend réduit significativement la complexité opérationnelle et les risques de régression lors des mises à jour. La publication de cette solution s'inscrit dans une compétition intense autour des agents IA en production. Google, Microsoft et des acteurs comme Anthropic proposent leurs propres infrastructures agentiques, mais AWS mise sur l'intégration native avec son écosystème de services cloud existants comme différenciateur clé. Nova 2 Sonic, le modèle speech-to-speech au coeur du système, représente l'entrée d'Amazon dans les interfaces vocales conversationnelles en temps réel, un segment où OpenAI s'est imposé avec GPT-4o Voice. En publiant ce tutoriel complet avec une architecture de restaurant fictive comme backend d'exemple, Amazon cherche à accélérer l'adoption par les développeurs et à établir AgentCore comme standard de fait pour le déploiement d'agents IA sur AWS. Les prochaines étapes logiques incluront probablement l'extension à d'autres modalités et l'intégration avec des systèmes de caisse et d'inventaire existants.

OutilsOutil
1 source