Aller au contenu principal
Présentation : accélérer la productivité des développeurs grâce aux LLM chez Zoox
OutilsInfoQ AI1h

Présentation : accélérer la productivité des développeurs grâce aux LLM chez Zoox

Résumé IASource uniqueImpact UE
Source originale ↗·

Zoox, filiale autonome d'Amazon spécialisée dans les véhicules sans conducteur, a présenté les détails de "Cortex", sa plateforme interne d'intelligence artificielle dédiée à la productivité des développeurs. Amit Navindgi, ingénieur au sein de l'entreprise, a expliqué comment Zoox a construit cet écosystème sécurisé combinant RAG (génération augmentée par récupération), des LLMs multimodaux et des APIs ouvertes aux contributions internes. L'objectif affiché : remplacer une documentation fragmentée et des flux de travail cloisonnés par un système unifié piloté par des agents IA.

L'enjeu dépasse la simple automatisation. Il s'agit de faire basculer toute la culture d'ingénierie vers des workflows autonomes, capables de raisonner et d'agir sans intervention humaine à chaque étape. Pour y parvenir, l'équipe a misé sur deux leviers concrets : la désignation d'"AI champions" au sein des équipes pour accélérer l'adoption en interne, et l'organisation de hackathons permettant aux développeurs d'expérimenter directement avec la plateforme. Cette approche bottom-up vise à ancrer l'IA dans les pratiques quotidiennes plutôt que de l'imposer par directive.

La démarche de Zoox s'inscrit dans une tendance qui touche l'ensemble de l'industrie tech : la transition des LLMs utilisés comme simples assistants vers des agents capables d'orchestrer des tâches complexes de bout en bout. Dans un secteur aussi exigeant que la conduite autonome, où la fiabilité est critique, sécuriser les accès aux modèles tout en maintenant la confiance des équipes représente un défi structurel. Le modèle Cortex, avec ses APIs ouvertes aux contributions internes, pourrait servir de référence à d'autres entreprises cherchant à industrialiser l'IA sans sacrifier la sécurité ni l'autonomie des développeurs.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1InfoQ AI 

Les copilotes IA pour développeurs : comment choisir et maximiser sa productivité

Sepehr Khosravi, développeur et expert en outillage IA, a présenté une analyse approfondie de l'état actuel des assistants de code basés sur l'intelligence artificielle, en s'intéressant particulièrement aux outils comme Cursor et Claude Code. Sa présentation dépasse la simple comparaison de fonctionnalités pour entrer dans les détails techniques qui différencient ces solutions : le mode "Composer" de Cursor, qui orchestre des modifications multi-fichiers en autonomie, et les capacités de recherche contextuelle de Claude Code, capable de naviguer dans de grandes bases de code pour comprendre l'architecture avant d'agir. L'enjeu central soulevé par Khosravi est la gestion des fenêtres de contexte et des intégrations MCP (Model Context Protocol), deux facteurs souvent négligés qui déterminent en pratique l'efficacité réelle de ces outils en environnement professionnel. Il souligne que le gain de productivité ne se limite pas à l'accélération de l'écriture de code : les workflows agentiques permettent de compresser l'ensemble du cycle de développement, de la compréhension du problème à la revue de code, en réduisant les allers-retours entre développeurs. S'appuyant sur des retours d'expérience de responsables techniques dans des entreprises tech, Khosravi illustre comment les équipes qui tirent le meilleur parti de ces outils ne les utilisent pas comme de simples autocompléteurs améliorés, mais comme des agents intégrés dans leurs processus. La concurrence entre éditeurs comme Cursor, GitHub Copilot et Anthropic s'intensifie sur ce segment des workflows agentiques, qui représente désormais le vrai terrain de différenciation dans l'outillage développeur.

OutilsOutil
1 source
2Interesting Engineering 

BMW déploie l'IA pour accélérer la production de batteries et réduire les déchets en usine de plus de 50 %

BMW Group a annoncé que des modèles d'intelligence artificielle développés en partenariat avec l'Université de Zagreb permettent de réduire la consommation de matériaux et le temps de production dans la fabrication de cellules de batteries de plus de 50 % sur certaines étapes du processus. Ce projet de recherche baptisé "Insight", lancé en 2024 avec le Centre régional d'excellence en technologie robotique de l'université croate, couvre l'ensemble de la chaîne de valeur : de la fabrication des électrodes aux tests de fin de ligne, en passant par le recyclage direct. Les travaux sont menés au Battery Cell Competence Centre de Munich, où BMW développe les cellules destinées aux prochaines générations de batteries haute tension pour véhicules électriques. Le système d'IA combine des résultats de tests existants avec des données de production en temps réel pour anticiper les paramètres de fabrication et les performances des cellules, réduisant ainsi le nombre et la durée des séries de tests coûteuses. L'impact potentiel est considérable pour une industrie sous pression. La mise au point de cellules de batterie exige normalement de longues séries d'essais qui mobilisent des matières premières, des lignes de production et des capacités de laboratoire. En permettant de prédire les résultats plus tôt dans le processus, l'IA de BMW pourrait accélérer significativement la montée en cadence de la production de batteries électriques tout en réduisant les coûts et les déchets industriels. Le système cible également une étape souvent négligée : après leur première charge, les cellules sont maintenues en "quarantaine", une période de stockage sous températures contrôlées avant l'assemblage final. BMW indique que ses modèles pourraient à terme éliminer cette étape, libérant de l'espace en usine et réduisant les délais de production des packs batteries. BMW concentre ses opérations sur les cellules entre trois sites bavarois : Munich pour la recherche et le développement, Parsdorf pour la production quasi-série, et Salching pour le recyclage. Le projet "Insight" implique des doctorants et étudiants croates chargés d'organiser les données de production et de construire des modèles capables de détecter des corrélations entre qualité, coûts et rendement. Christian Siedelhofer, responsable du développement technologique des cellules lithium-ion chez BMW, a précisé que l'entreprise travaille à faire passer ces modèles du prototype vers un déploiement à l'échelle de son réseau de production. Le partenariat joue aussi un rôle de vivier de talents pour attirer de futurs spécialistes en batteries et en IA. BMW n'a pas précisé quels modèles d'IA sont utilisés ni à quelle échéance un déploiement industriel complet pourrait intervenir.

UEBMW, constructeur allemand, déploie l'IA dans ses usines bavaroises en partenariat avec une université croate, renforçant potentiellement la compétitivité européenne dans la filière batterie face aux acteurs asiatiques.

OutilsActu
1 source
AWS : guide complet pour migrer des LLMs en production d'IA générative
3AWS ML Blog 

AWS : guide complet pour migrer des LLMs en production d'IA générative

Amazon Web Services a publié un guide technique détaillant un cadre structuré pour migrer des modèles de langage (LLM) en production, baptisé "Generative AI Model Agility Solution". Conçu pour les équipes qui souhaitent passer d'un modèle à un autre, que ce soit entre différentes familles de LLM ou vers une version plus récente du même modèle, le dispositif repose sur trois étapes clés : évaluation du modèle source, migration et optimisation des prompts via Amazon Bedrock Prompt Optimization et l'outil Anthropic Metaprompt, puis évaluation du modèle cible. La durée totale d'une migration en suivant ce cadre varie de deux jours à deux semaines selon la complexité du cas d'usage. AWS met à disposition plusieurs exemples de fonctionnalités et de scénarios concrets pour faciliter la prise en main. La capacité à changer rapidement de modèle est devenue un enjeu stratégique pour les organisations qui déploient de l'IA en production : les performances évoluent vite, les coûts varient fortement d'un fournisseur à l'autre, et rester lié à un seul LLM expose à des risques opérationnels. Ce framework répond à ce problème en automatisant une grande partie du travail de comparaison : il fournit des métriques quantifiables sur le coût, la latence, la précision et la qualité, permettant des décisions fondées sur des données plutôt que sur des impressions. Il prend également en charge les cas où aucune réponse de référence ("ground truth") n'est disponible, en s'appuyant sur des indicateurs comme la pertinence des réponses, leur fidélité au contexte, ou la détection de biais et de contenus toxiques. Le lancement de ce guide s'inscrit dans une compétition intense entre fournisseurs de cloud pour capter les budgets IA des grandes entreprises. Amazon Bedrock, la plateforme d'accès aux LLM managés d'AWS, doit convaincre les organisations qu'elles peuvent migrer vers ses modèles sans friction excessive, notamment face à des concurrents comme Azure OpenAI ou Google Vertex AI. En intégrant nativement l'outil Metaprompt d'Anthropic, AWS mise sur la qualité des prompts comme levier différenciant, une approche cohérente avec les investissements massifs du groupe dans Anthropic. La publication de ce cadre open au niveau méthodologique signale aussi une volonté d'AWS de standardiser les pratiques de migration LLM avant que ce marché ne se fragmente davantage, en positionnant Bedrock comme la plateforme de destination naturelle pour les migrations de production.

OutilsOutil
1 source
4AWS ML Blog 

Présentation de V-RAG : révolutionner la production vidéo assistée par IA grâce à la génération augmentée par récupération

V-RAG (Video Retrieval-Augmented Generation) est une nouvelle approche qui combine la génération augmentée par récupération avec les modèles de génération vidéo par IA, visant à rendre la production de vidéos plus fiable et prévisible. Cette technologie permet de créer du contenu vidéo dynamique à partir de simples textes, mais va au-delà des limites du prompting textuel — comme les contraintes de tokens ou les interprétations imprécises — en offrant des outils de personnalisation avancés pour contrôler le style, l'ambiance et les détails visuels. V-RAG s'adresse aux organisations qui souhaitent produire du contenu visuel professionnel sans expertise technique approfondie ni ressources de production traditionnelles.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour