Aller au contenu principal
Miro utilise Amazon Bedrock pour améliorer le routage des bugs logiciels et réduire le délai de résolution de plusieurs jours à quelques heures
OutilsAWS ML Blog1h

Miro utilise Amazon Bedrock pour améliorer le routage des bugs logiciels et réduire le délai de résolution de plusieurs jours à quelques heures

Résumé IASource uniqueImpact UE
Source originale ↗·

Miro, la plateforme de collaboration visuelle utilisée par plus de 95 millions d'utilisateurs dans le monde, a développé un système d'intelligence artificielle baptisé BugManager pour automatiser le tri et l'affectation des rapports de bugs à ses équipes d'ingénierie. Avant cette solution, une part significative des bugs manquait les délais internes de résolution, principalement à cause d'erreurs d'affectation et de multiples réassignations entre équipes. L'entreprise estimait ces dysfonctionnements à 42 années cumulées de productivité perdue chaque année. BugManager a été développé en partenariat avec l'équipe AWS Prototyping and Cloud Engineering (PACE) et s'appuie sur Amazon Bedrock, Amazon Nova Pro et Claude Sonnet 4 d'Anthropic. Le résultat est saisissant : six fois moins de réassignations entre équipes, et un temps de résolution réduit de plusieurs jours à quelques heures.

L'impact est d'abord opérationnel : les développeurs passent moins de temps à gérer des tickets mal orientés et peuvent se concentrer sur la résolution réelle des problèmes. Pour une organisation comptant près de 100 équipes, chacune responsable d'une portion spécifique du produit, un mauvais routage engendre des investigations redondantes, de la frustration, et des retards visibles pour les utilisateurs finaux. En passant d'une logique de classification traditionnelle à une approche basée sur la génération augmentée par récupération (RAG), Miro s'affranchit également de la nécessité de réentraîner ses modèles à chaque réorganisation interne, ce qui représente un gain stratégique considérable dans un environnement où les équipes fusionnent, se créent ou évoluent régulièrement.

Les approches précédentes de Miro reposaient sur des modèles fine-tunés comme BERT ou GPT, qui se dégradaient rapidement dès que la structure organisationnelle changeait, faute de données d'entraînement suffisantes pour les nouvelles configurations. BugManager adopte une architecture radicalement différente : lorsqu'un bug est soumis, le système commence par analyser les éléments non textuels (captures d'écran, enregistrements vidéo) via les capacités multimodales d'Amazon Nova Pro, puis enrichit le rapport via des bases de connaissances contenant des tickets Jira déjà résolus, des pull requests GitHub, de la documentation Confluence et des fichiers README. Claude Sonnet 4, via Amazon Bedrock, synthétise ensuite ces informations pour affecter le bug à l'équipe la plus pertinente, sans nécessiter aucun réentraînement. Cette approche "zero-training" représente une tendance de fond dans l'industrie : déléguer la classification complexe à des grands modèles de langage enrichis de contexte métier, plutôt que de maintenir des pipelines d'entraînement coûteux et fragiles.

Impact France/UE

Le modèle architectural RAG sans réentraînement décrit constitue une référence concrète applicable par les équipes d'ingénierie françaises et européennes cherchant à automatiser leur gestion de tickets sans pipeline ML coûteux.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Hapag-Lloyd utilise Amazon Bedrock pour transformer les retours clients en informations exploitables
1AWS ML Blog 

Hapag-Lloyd utilise Amazon Bedrock pour transformer les retours clients en informations exploitables

Hapag-Lloyd, l'un des leaders mondiaux du transport maritime de conteneurs, a déployé une solution d'analyse automatisée des retours clients basée sur Amazon Bedrock, le service d'IA générative d'AWS. L'armateur allemand, qui exploite une flotte de 313 porte-conteneurs représentant 2,5 millions d'EVP de capacité de transport, emploie environ 14 000 personnes dans son segment de lignes régulières et gère plus de 400 bureaux dans 140 pays. Son équipe d'ingénierie produit, répartie entre Hambourg et Gdańsk, pilote cette initiative dans le cadre d'une ambition plus large de devenir une entreprise dite "AI-native". Le système s'appuie sur Amazon Bedrock, LangChain et LangGraph, ainsi qu'Elasticsearch pour collecter les commentaires clients, en extraire le sentiment, identifier des thèmes récurrents et produire des synthèses exploitables. L'enjeu est d'abord opérationnel : avant cette solution, les chefs de produit exportaient manuellement des fichiers CSV toutes les deux semaines, parcouraient des centaines de commentaires et les catégorisaient à la main, un travail qui pouvait mobiliser plusieurs heures, parfois plusieurs jours, avant chaque réunion de revue produit. Désormais, l'ensemble de ce flux est automatisé, de l'ingestion des données à la production d'insights. Les équipes peuvent ainsi se concentrer sur la stratégie et l'innovation plutôt que sur l'analyse répétitive. Pour une entreprise qui relie plus de 600 ports via 133 lignes régulières mondiales et traite un volume massif d'interactions clients, la capacité à lire rapidement les signaux du terrain constitue un avantage concurrentiel direct sur la qualité de service et la réactivité produit. Cette transformation s'inscrit dans une dynamique plus large de l'industrie du shipping, où la digitalisation s'accélère sous la pression de la concurrence et des attentes croissantes des chargeurs. Hapag-Lloyd a construit sa capacité sur une stack technologique qu'il maîtrise en propre, ce qui lui a permis d'itérer rapidement vers des usages d'IA générative sans dépendance contraignante. Le choix d'Amazon Bedrock est également révélateur : le service donne accès via une API unifiée aux modèles d'Anthropic, Meta, Mistral, DeepSeek et d'autres, avec des garanties de sécurité et de confidentialité adaptées aux exigences d'un groupe coté en bourse. À mesure que d'autres armateurs et acteurs logistiques adoptent des approches similaires, la capacité à transformer le feedback client en décisions produit en temps quasi réel pourrait devenir un standard du secteur plutôt qu'un avantage différenciant.

UEHapag-Lloyd, armateur allemand coté en bourse avec ses équipes à Hambourg et Gdańsk, automatise l'analyse de ses retours clients via Amazon Bedrock, signalant l'accélération de l'IA générative dans la logistique maritime européenne.

OutilsOutil
1 source
Rocket Close révolutionne le traitement des documents hypothécaires avec Amazon Bedrock et Amazon Textract
2AWS ML Blog 

Rocket Close révolutionne le traitement des documents hypothécaires avec Amazon Bedrock et Amazon Textract

Rocket Close, filiale de gestion de titres et d'évaluations immobilières au sein du groupe Rocket Companies basée à Detroit, a automatisé le traitement de ses dossiers hypothécaires grâce à une solution développée en partenariat avec le AWS Generative AI Innovation Center (GenAIIC). L'entreprise traitait jusqu'à 2 000 dossiers par jour, chacun comptant en moyenne 75 pages, pour un total potentiel de plus de 500 000 documents par an. Le processus manuel exigeait jusqu'à 10 heures par dossier lors des pics de volume, soit environ 1 000 heures de travail humain quotidien, pour un coût annuel se chiffrant en millions de dollars. La nouvelle solution repose sur Amazon Textract pour la reconnaissance optique de caractères et Amazon Bedrock pour accéder à des modèles de fondation via une API unifiée. Elle atteint une précision globale de 90 % sur la segmentation, la classification et l'extraction de données, et rend le traitement 15 fois plus rapide qu'auparavant. L'impact opérationnel est considérable. En remplaçant un processus manuel chronophage par un pipeline automatisé, Rocket Close libère des ressources humaines pour des tâches à plus haute valeur ajoutée, réduit drastiquement ses coûts par dossier et élimine les goulots d'étranglement qui freinaient sa croissance. Pour les clients finaux, cela se traduit par des délais de traitement bien plus courts lors de l'achat ou du refinancement d'un bien immobilier. La solution est conçue pour absorber des volumes croissants sans dégradation de qualité, ce qui change fondamentalement les possibilités de mise à l'échelle dans un secteur où la vitesse d'instruction des prêts est un avantage concurrentiel direct. Le défi technique était loin d'être trivial : les dossiers hypothécaires sont des assemblages hétérogènes de plus de 60 types de documents différents, mêlant textes dactylographiés, notes manuscrites, tableaux, formulaires, tampons et signatures, avec une mise en forme et un ordre variables d'un dossier à l'autre. C'est précisément cette complexité structurelle qui avait jusqu'ici rendu l'automatisation difficile. L'essor des modèles de fondation multimodaux accessibles via des services managés comme Amazon Bedrock a changé la donne, en permettant une classification contextuelle robuste là où les approches règle-par-règle échouaient. Rocket Close s'inscrit ainsi dans une vague plus large de transformation documentaire dans les secteurs financiers et immobiliers, où les grands groupes cherchent à industrialiser des processus restés manuels faute d'outils suffisamment fiables. La prochaine étape pour l'entreprise sera probablement d'étendre ces capacités à d'autres types de documents tout au long de la chaîne de traitement des prêts.

OutilsOutil
1 source
Halliburton améliore la création de workflows sismiques avec Amazon Bedrock et l'IA générative
3AWS ML Blog 

Halliburton améliore la création de workflows sismiques avec Amazon Bedrock et l'IA générative

Halliburton, l'un des plus grands groupes de services pétroliers au monde, a développé en partenariat avec l'AWS Generative AI Innovation Center un assistant intelligent intégré à son logiciel Seismic Engine, une application cloud dédiée au traitement des données sismiques. Concrètement, la configuration d'un workflow de traitement nécessitait jusqu'ici la sélection et le paramétrage manuel d'environ 100 outils spécialisés, un processus long et exigeant une expertise pointue. Désormais, les géoscientifiques et data scientists peuvent décrire leurs besoins en langage naturel, et le système génère automatiquement les workflows exécutables correspondants. La solution repose sur Amazon Bedrock, Amazon Bedrock Knowledge Bases, le modèle Amazon Nova et Amazon DynamoDB. Techniquement, une application FastAPI déployée sur AWS App Runner reçoit les requêtes utilisateurs via une interface en streaming ; un routeur d'intention alimenté par Amazon Nova Lite détermine si la demande concerne la génération d'un workflow ou une question documentaire, puis redirige vers l'agent approprié. Pour la création de workflows, le modèle Claude d'Anthropic, accessible via Amazon Bedrock, sélectionne parmi 82 outils disponibles et produit des fichiers YAML directement exploitables. Les résultats du proof-of-concept font état d'une accélération allant jusqu'à 95 % du temps de création des workflows. Cet outil change fondamentalement le rapport des ingénieurs à un logiciel jusqu'ici réservé aux experts maîtrisant des dizaines de paramètres techniques. En rendant Seismic Engine accessible via une conversation, Halliburton élargit le cercle des utilisateurs capables de configurer des traitements sismiques complexes sans formation approfondie sur chaque outil. Pour l'industrie pétrolière et gazière, où l'interprétation des données de subsurface conditionne directement les décisions d'exploration et les investissements en milliards de dollars, réduire d'un ordre de grandeur le temps consacré à ces tâches représente un gain opérationnel considérable. La gestion du contexte conversationnel via DynamoDB permet en outre des échanges multi-tours, rendant possible l'ajustement itératif des workflows sans repartir de zéro à chaque interaction. Cette initiative s'inscrit dans un mouvement plus large d'adoption de l'IA générative dans les industries à forte intensité de données techniques, où les workflows complexes freinent depuis longtemps la productivité. Halliburton, qui opère dans plus de 70 pays, dispose d'une base d'utilisateurs pour laquelle chaque gain de temps sur l'analyse sismique se traduit directement en avantage concurrentiel. Le choix d'AWS comme partenaire reflète la domination du cloud américain dans les déploiements d'IA en entreprise, Amazon Bedrock servant de couche d'abstraction pour accéder à plusieurs modèles fondateurs, dont ceux d'Anthropic. La prochaine étape probable est le passage de ce proof-of-concept à une intégration production dans la suite Landmark DS365, potentiellement étendue à d'autres modules d'analyse de subsurface.

OutilsOutil
1 source
Amazon Bedrock et Amazon OpenSearch : créer un moteur de recherche intelligent pour le RAG hybride
4AWS ML Blog 

Amazon Bedrock et Amazon OpenSearch : créer un moteur de recherche intelligent pour le RAG hybride

Amazon a présenté une approche technique détaillée pour construire des assistants d'IA générative de nouvelle génération, combinant Amazon Bedrock, Amazon Bedrock AgentCore, le framework Strands Agents et Amazon OpenSearch dans une architecture dite "RAG hybride" (Retrieval-Augmented Generation). Ces systèmes, plus sophistiqués que de simples chatbots, sont capables de mener des conversations en plusieurs étapes, d'adapter leurs réponses aux besoins spécifiques de chaque utilisateur, et d'exécuter des tâches en arrière-plan telles que des appels d'API ou des requêtes en base de données en temps réel. L'exemple concret illustré dans l'article est celui d'un assistant de réservation hôtelière : l'agent interroge d'abord une base de données pour identifier les établissements correspondant aux critères du client, puis effectue des appels API pour récupérer disponibilités et tarifs actuels, avant de synthétiser ces informations dans une réponse cohérente. Le coeur de l'innovation réside dans la combinaison de deux approches de recherche d'information : la recherche textuelle classique par mots-clés et la recherche sémantique vectorielle. Cette dernière repose sur des embeddings vectoriels précalculés, stockés dans des bases de données vectorielles comme OpenSearch, qui permettent de trouver des résultats pertinents même lorsque les termes exacts ne correspondent pas. Le système convertit la requête de l'utilisateur en vecteur numérique et identifie les contenus les plus proches dans un espace à haute dimension, en utilisant des métriques de distance comme la similarité cosinus. Un exemple frappant illustre la puissance de cette approche : pour la requête "2x4 lumber board", le système sémantique identifie "building materials" comme résultat pertinent, là où une recherche lexicale aurait échoué. Cette capacité d'alignement sémantique est particulièrement précieuse pour les entreprises dont les bases de connaissances métier utilisent une terminologie différente de celle employée par leurs clients. Cette publication s'inscrit dans la stratégie d'Amazon Web Services de positionner Bedrock comme la plateforme centrale pour le déploiement d'agents d'IA en entreprise. Le RAG hybride répond à un défi bien documenté des LLMs : leur incapacité à accéder nativement à des données récentes ou propriétaires. En greffant une couche de récupération dynamique sur des modèles comme ceux disponibles via Bedrock, AWS propose une alternative aux solutions de fine-tuning, plus coûteuses et moins flexibles. La concurrence dans ce segment est intense, avec des offres similaires chez Microsoft Azure (Azure AI Search) et Google Cloud (Vertex AI Search). L'intégration native d'OpenSearch dans cet écosystème renforce l'attrait pour les entreprises déjà clientes AWS, tandis que l'introduction de Bedrock AgentCore signale une montée en gamme vers des architectures multi-agents plus complexes, capables d'orchestrer plusieurs outils et sources de données simultanément.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour