
Présentation : accélérer la productivité des développeurs grâce aux LLM chez Zoox
Zoox, filiale autonome d'Amazon spécialisée dans les véhicules sans conducteur, a présenté les détails de "Cortex", sa plateforme interne d'intelligence artificielle dédiée à la productivité des développeurs. Amit Navindgi, ingénieur au sein de l'entreprise, a expliqué comment Zoox a construit cet écosystème sécurisé combinant RAG (génération augmentée par récupération), des LLMs multimodaux et des APIs ouvertes aux contributions internes. L'objectif affiché : remplacer une documentation fragmentée et des flux de travail cloisonnés par un système unifié piloté par des agents IA.
L'enjeu dépasse la simple automatisation. Il s'agit de faire basculer toute la culture d'ingénierie vers des workflows autonomes, capables de raisonner et d'agir sans intervention humaine à chaque étape. Pour y parvenir, l'équipe a misé sur deux leviers concrets : la désignation d'"AI champions" au sein des équipes pour accélérer l'adoption en interne, et l'organisation de hackathons permettant aux développeurs d'expérimenter directement avec la plateforme. Cette approche bottom-up vise à ancrer l'IA dans les pratiques quotidiennes plutôt que de l'imposer par directive.
La démarche de Zoox s'inscrit dans une tendance qui touche l'ensemble de l'industrie tech : la transition des LLMs utilisés comme simples assistants vers des agents capables d'orchestrer des tâches complexes de bout en bout. Dans un secteur aussi exigeant que la conduite autonome, où la fiabilité est critique, sécuriser les accès aux modèles tout en maintenant la confiance des équipes représente un défi structurel. Le modèle Cortex, avec ses APIs ouvertes aux contributions internes, pourrait servir de référence à d'autres entreprises cherchant à industrialiser l'IA sans sacrifier la sécurité ni l'autonomie des développeurs.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

