Aller au contenu principal
IBM lance Bob pour sécuriser le codage IA en production, via routage multi-modèles et contrôles humains
OutilsVentureBeat AI43min

IBM lance Bob pour sécuriser le codage IA en production, via routage multi-modèles et contrôles humains

Résumé IASource uniqueImpact UE
Source originale ↗·

IBM a lancé hier à l'échelle mondiale Bob, sa plateforme de développement logiciel propulsée par l'intelligence artificielle. L'outil, conçu pour écrire, tester et gérer du code tout au long du cycle de développement, est déjà utilisé par plus de 80 000 employés d'IBM après avoir démarré avec seulement 100 utilisateurs internes à l'été 2025. Bob repose sur un routage multi-modèles : il peut s'appuyer sur les modèles Granite d'IBM, les modèles Claude d'Anthropic, ou encore ceux de la société française Mistral, ainsi que sur des modèles distillés plus légers. Les modèles open source comme Qwen d'Alibaba sont explicitement exclus. Selon IBM, certaines équipes ont économisé jusqu'à 70 % du temps sur certaines tâches, soit en moyenne dix heures par semaine. Neal Sundaresan, directeur général de l'automatisation et de l'IA chez IBM, résume la philosophie de la plateforme : « La capacité du modèle seule ne suffit pas. La façon dont vous le déployez, dont vous structurez le contexte, et dont vous maintenez les humains dans la boucle détermine si l'IA tient réellement ses promesses. »

Ce qui distingue Bob de concurrents comme Cursor ou Claude Code, c'est le niveau de contrôle et de gouvernance qu'il impose sur les workflows agentiques. Là où d'autres outils placent le développeur au début de la tâche pour qu'il enchaîne les étapes manuellement, Bob introduit des points de contrôle humains structurés à intervalles réguliers, tout en permettant à des agents IA d'accomplir des tâches complexes en plusieurs étapes. Cette approche répond directement aux besoins des grandes entreprises, qui craignent les failles de sécurité et les défaillances d'orchestration lorsque des agents autonomes accèdent à des données en production. Pour les directions techniques et les équipes d'audit, la traçabilité et la capacité à intervenir à tout moment priment sur la vitesse.

Cette annonce s'inscrit dans une tension croissante dans l'industrie entre deux visions de l'IA agentique. D'un côté, des systèmes ouverts et autonomes comme OpenClaw ou NemoClaw de Nvidia, qui poussent les limites de l'automatisation dans des environnements bac à sable. De l'autre, des plateformes comme Bob qui privilégient la fiabilité, l'auditabilité et la supervision humaine. OpenAI a récemment ajouté dans son Agents SDK un support pour des implémentations en bac à sable, tandis que Kilo lançait Kilo Claw centré sur la sécurité des agents autonomes. IBM, fort de ses décennies d'expérience dans les systèmes d'entreprise critiques, choisit délibérément la prudence. Sundaresan le dit sans détour : « Il vaut mieux ouvrir la grille lentement que de dire, 'oups, comment je la referme maintenant ?' »

Impact France/UE

Mistral, startup française, est intégrée nativement comme l'un des modèles supportés par Bob aux côtés de Claude et Granite, lui offrant une vitrine directe auprès des 80 000 développeurs IBM et renforçant la crédibilité des LLMs européens dans les environnements enterprise critiques.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

IBM lance la plateforme IA Bob pour maîtriser les coûts du cycle de développement logiciel
1AI News 

IBM lance la plateforme IA Bob pour maîtriser les coûts du cycle de développement logiciel

IBM a lancé Bob, une plateforme d'intelligence artificielle conçue pour encadrer et rationaliser l'ensemble du cycle de développement logiciel en entreprise. L'annonce a été portée par Dinesh Nirmal, vice-président senior d'IBM Software, qui a résumé l'enjeu : « Chaque entreprise cherche à se moderniser, mais la vitesse sans contrôle est un risque. IBM Bob permet aux entreprises d'avancer à la vitesse de l'IA sans sacrifier la gouvernance et la sécurité. » La plateforme s'intègre directement dans le cycle de vie logiciel complet, avec des modes basés sur des profils utilisateurs, des appels d'outils automatisés et des contrôles humains à chaque étape critique. L'un de ses premiers cas d'usage concrets est APIS IT, une entreprise qui a déployé Bob pour moderniser des systèmes gouvernementaux chargés de décennies de dette technique sur des environnements mainframe et .NET. Résultat : une analyse d'architecture et une documentation produites dix fois plus vite, avec une précision de 100 % sur des systèmes JCL/PL1 vieillissants, et des migrations de services .NET réalisées en quelques heures au lieu de plusieurs semaines. L'enjeu est massif : entre 60 et 80 % du budget d'ingénierie des grandes organisations est absorbé par la maintenance et la mise à niveau de systèmes existants, des projets qui s'étirent souvent sur des mois. Les assistants de code classiques aggravent le problème lorsqu'ils sont utilisés sans garde-fous, car ils génèrent du code syntaxiquement correct mais fonctionnellement inutile, incapable de comprendre les bibliothèques internes ou la logique propriétaire d'une entreprise. Bob répond à ce problème en cartographiant d'abord les dépendances avant toute refactorisation, puis en coordonnant des agents spécialisés pour les tests, la documentation et l'intégration continue. Le système utilise une orchestration multi-modèles dynamique : les tâches simples sont routées vers des modèles légers et économiques, tandis que les raisonnements architecturaux complexes mobilisent des modèles de pointe comme Claude d'Anthropic, Mistral ou IBM Granite. Ce lancement s'inscrit dans une course plus large à l'automatisation du développement logiciel en entreprise, un marché où GitHub Copilot, Google Gemini Code Assist et des dizaines de startups se disputent déjà les contrats. IBM mise sur une différenciation claire : là où ses concurrents proposent des assistants de productivité individuelle, Bob cible la gouvernance à l'échelle de l'organisation, avec une traçabilité des coûts et une transparence sur les dépenses IA directement liées aux résultats en production. La capacité à gérer des environnements mainframe, souvent ignorés par les nouveaux entrants du marché, constitue un avantage stratégique pour IBM auprès de ses clients traditionnels dans la finance, les assurances et le secteur public, des industries où la dette technique se chiffre en milliards et où la compliance réglementaire n'est pas négociable.

UEIBM Bob cible explicitement les secteurs finance, assurance et secteur public, où les DSI françaises et européennes gèrent d'importantes dettes techniques sous contraintes réglementaires strictes.

OutilsOutil
1 source
Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production
2VentureBeat AI 

Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production

Cohere a lancé Transcribe, un modèle de reconnaissance vocale automatique (ASR) en open-weight, disponible depuis mars 2026 via API ou dans son Model Vault sous l'identifiant cohere-transcribe-03-2026. Avec 2 milliards de paramètres et une licence Apache-2.0 autorisant un usage commercial immédiat, le modèle affiche un taux d'erreur moyen sur les mots (WER) de 5,42 % — le meilleur score actuellement sur le classement ASR de Hugging Face. Il devance Whisper Large v3 d'OpenAI (7,44 %), ElevenLabs Scribe v2 (5,83 %) et Qwen3-ASR-1.7B (5,76 %). Transcribe prend en charge 14 langues : anglais, français, allemand, italien, espagnol, grec, néerlandais, polonais, portugais, chinois, japonais, coréen, vietnamien et arabe. Sur des benchmarks spécialisés, il obtient 8,15 % sur AMI (compréhension de réunions) et 5,87 % sur VoxPopuli (diversité d'accents). Ce lancement change concrètement la donne pour les entreprises qui construisent des workflows voix, des pipelines de transcription ou des systèmes de recherche audio. Jusqu'ici, elles devaient choisir entre des API fermées — précises mais problématiques pour la souveraineté des données — ou des modèles open source moins performants. Transcribe rompt ce compromis : il tourne sur l'infrastructure GPU locale d'une organisation, éliminant les risques de résidence des données et les pénalités de latence liées aux API externes. Pour les équipes qui construisent des pipelines RAG ou des agents IA intégrant de l'audio, c'est une voie directe vers la transcription de qualité production sans dépendance à un fournisseur cloud. Cohere se positionne depuis plusieurs années comme l'alternative "enterprise-first" aux grands modèles grand public, en misant sur le déploiement privé et la conformité réglementaire. Transcribe s'inscrit dans cette stratégie : là où Whisper avait été publié comme modèle de recherche sous licence MIT sans priorité commerciale immédiate, Cohere livre d'emblée un modèle prêt pour la production. La société précise avoir optimisé simultanément la précision (WER bas) et le débit (RTFx élevé), ce qui est techniquement difficile dans la catégorie des modèles de plus d'un milliard de paramètres. Les premiers utilisateurs ont salué notamment la capacité à rapatrier en interne des flux audio qui transitaient jusqu'alors par des API tierces — un enjeu croissant dans les secteurs soumis au RGPD ou aux réglementations sectorielles strictes comme la finance et la santé.

UELe modèle supporte le français et permet un déploiement on-premise éliminant les risques de résidence des données, un avantage direct pour les entreprises européennes soumises au RGPD dans les secteurs finance et santé.

OutilsOpinion
1 source
Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic
3Siècle Digital 

Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic

Google a annoncé une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Google Workspace, en déployant ses modèles d'intelligence artificielle les plus récents. La plateforme intègre désormais Veo 3.1, capable de générer des clips vidéo en 720p à partir d'une simple description textuelle. L'outil propose également la composition musicale automatique, la personnalisation d'avatars animés, la capture d'écran intégrée et une création de bout en bout à partir d'une idée initiale. Pour les entreprises et les équipes qui produisent du contenu régulièrement, cette mise à jour réduit considérablement le temps et les compétences techniques nécessaires à la production vidéo. Là où il fallait auparavant un outil de montage, des assets sonores et un opérateur formé, Google Vids promet de compresser ce workflow en quelques clics. La cible est clairement professionnelle : présentations internes, formations, communications corporate, ou contenus marketing légers, sans passer par une agence ou un logiciel spécialisé. Google positionne Vids comme le pendant vidéo de Google Slides dans l'écosystème Workspace, capitalisant sur sa base d'utilisateurs enterprise déjà captive. La montée en puissance de Veo, son modèle vidéo génératif, s'inscrit dans une compétition directe avec Sora d'OpenAI et Runway. En intégrant ces capacités directement dans Workspace plutôt qu'en produit autonome, Google mise sur l'effet d'adoption naturelle, là où ses concurrents doivent convaincre les utilisateurs de changer d'outil. La question reste de savoir si la qualité des rendus sera suffisante pour des usages professionnels exigeants.

UEGoogle Workspace étant massivement déployé dans les entreprises françaises et européennes, cette mise à jour impacte directement les équipes qui produisent du contenu vidéo dans cet écosystème.

OutilsOutil
1 source
AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
4AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source