Aller au contenu principal
OutilsZDNET FR7sem

Chainguard met tout en œuvre pour rétablir la confiance dans les logiciels développés par l'IA – voici comment

Résumé IASource uniqueImpact UE
Source originale ↗·

Chainguard, spécialiste de la sécurité des chaînes d'approvisionnement logicielles, franchit une nouvelle étape en étendant sa plateforme bien au-delà de son cœur de métier originel autour de l'open source. La société annonce désormais une couverture élargie incluant les logiciels open-core, les compétences des agents IA (AI agent skills) et les GitHub Actions — trois vecteurs d'attaque en pleine expansion à mesure que le développement assisté par l'IA se généralise.

L'enjeu est de taille : l'explosion de la génération de code par les LLMs a introduit une nouvelle catégorie de risques. Les développeurs font désormais confiance à du code produit par des modèles d'IA sans nécessairement en auditer la provenance, les dépendances ou l'intégrité. Dans ce contexte, les agents IA qui exécutent des actions automatisées — via des skills ou des workflows GitHub Actions — représentent une surface d'attaque particulièrement sensible, car une seule compromission peut se propager silencieusement à travers des pipelines entiers de production.

Chainguard répond à cette menace en appliquant sa philosophie éprouvée — images conteneurs durcies, signatures cryptographiques, SBOM (Software Bill of Materials) — à ces nouveaux contextes. L'extension au logiciel open-core est notamment stratégique : ces projets hybrides, mi-open source mi-propriétaires, sont devenus le modèle dominant des éditeurs SaaS mais restaient jusqu'ici dans un angle mort des outils de sécurité de la supply chain. La prise en charge des GitHub Actions vise quant à elle les workflows CI/CD, régulièrement ciblés lors d'attaques par compromission de dépendances tierces.

Cette évolution positionne Chainguard comme un acteur incontournable d'une discipline en train de se redéfinir : la sécurité du développement augmenté par l'IA. Alors que les entreprises adoptent massivement les copilotes de code et les agents autonomes, la question de la traçabilité et de l'intégrité du code généré ou exécuté par ces systèmes devient un enjeu de conformité autant que de cybersécurité.

Impact France/UE

Les entreprises européennes utilisant des pipelines CI/CD et des agents IA sont concernées par ces risques de sécurité dans la chaîne d'approvisionnement logicielle.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1InfoQ AI 

Quelle place pour les humains dans le développement logiciel assisté par l'IA ?

Sur le blog de Martin Fowler, Kief Morris analyse la place des développeurs dans l'ingénierie logicielle assistée par IA, concluant qu'ils ne seront pas mis "hors de la boucle." Les équipes travailleront plutôt "sur la boucle" — en concevant tests, spécifications et mécanismes de feedback pour guider les agents IA. Le débat du secteur porte désormais sur la vérification et la gouvernance de ces systèmes.

OutilsOpinion
1 source
IBM lance la plateforme IA Bob pour maîtriser les coûts du cycle de développement logiciel
2AI News 

IBM lance la plateforme IA Bob pour maîtriser les coûts du cycle de développement logiciel

IBM a lancé Bob, une plateforme d'intelligence artificielle conçue pour encadrer et rationaliser l'ensemble du cycle de développement logiciel en entreprise. L'annonce a été portée par Dinesh Nirmal, vice-président senior d'IBM Software, qui a résumé l'enjeu : « Chaque entreprise cherche à se moderniser, mais la vitesse sans contrôle est un risque. IBM Bob permet aux entreprises d'avancer à la vitesse de l'IA sans sacrifier la gouvernance et la sécurité. » La plateforme s'intègre directement dans le cycle de vie logiciel complet, avec des modes basés sur des profils utilisateurs, des appels d'outils automatisés et des contrôles humains à chaque étape critique. L'un de ses premiers cas d'usage concrets est APIS IT, une entreprise qui a déployé Bob pour moderniser des systèmes gouvernementaux chargés de décennies de dette technique sur des environnements mainframe et .NET. Résultat : une analyse d'architecture et une documentation produites dix fois plus vite, avec une précision de 100 % sur des systèmes JCL/PL1 vieillissants, et des migrations de services .NET réalisées en quelques heures au lieu de plusieurs semaines. L'enjeu est massif : entre 60 et 80 % du budget d'ingénierie des grandes organisations est absorbé par la maintenance et la mise à niveau de systèmes existants, des projets qui s'étirent souvent sur des mois. Les assistants de code classiques aggravent le problème lorsqu'ils sont utilisés sans garde-fous, car ils génèrent du code syntaxiquement correct mais fonctionnellement inutile, incapable de comprendre les bibliothèques internes ou la logique propriétaire d'une entreprise. Bob répond à ce problème en cartographiant d'abord les dépendances avant toute refactorisation, puis en coordonnant des agents spécialisés pour les tests, la documentation et l'intégration continue. Le système utilise une orchestration multi-modèles dynamique : les tâches simples sont routées vers des modèles légers et économiques, tandis que les raisonnements architecturaux complexes mobilisent des modèles de pointe comme Claude d'Anthropic, Mistral ou IBM Granite. Ce lancement s'inscrit dans une course plus large à l'automatisation du développement logiciel en entreprise, un marché où GitHub Copilot, Google Gemini Code Assist et des dizaines de startups se disputent déjà les contrats. IBM mise sur une différenciation claire : là où ses concurrents proposent des assistants de productivité individuelle, Bob cible la gouvernance à l'échelle de l'organisation, avec une traçabilité des coûts et une transparence sur les dépenses IA directement liées aux résultats en production. La capacité à gérer des environnements mainframe, souvent ignorés par les nouveaux entrants du marché, constitue un avantage stratégique pour IBM auprès de ses clients traditionnels dans la finance, les assurances et le secteur public, des industries où la dette technique se chiffre en milliards et où la compliance réglementaire n'est pas négociable.

UEIBM Bob cible explicitement les secteurs finance, assurance et secteur public, où les DSI françaises et européennes gèrent d'importantes dettes techniques sous contraintes réglementaires strictes.

OutilsOutil
1 source
L'IA était partout à la grande conférence des développeurs de jeux — sauf dans les jeux
3The Verge AI 

L'IA était partout à la grande conférence des développeurs de jeux — sauf dans les jeux

Lors du GDC Festival of Gaming 2026, l'IA générative était omniprésente côté outils et exposants : Tencent proposait un monde fantasy en pixel-art généré par IA, Razer démontrait un assistant QA automatisé, et Google DeepMind présentait des espaces de jeu générés par IA à guichet fermé. Pourtant, les développeurs de jeux interrogés restaient largement absents de cette tendance dans leurs propres productions. Un paradoxe frappant : l'IA envahit l'industrie du jeu vidéo sans encore s'imposer dans les jeux eux-mêmes.

OutilsOutil
1 source
Open source : comment l'IA est soudainement devenue bien plus utile pour les développeurs
4ZDNET FR 

Open source : comment l'IA est soudainement devenue bien plus utile pour les développeurs

L'intelligence artificielle s'impose progressivement comme un outil de maintenance pour les projets open source, y compris ceux qui manquent de contributeurs actifs depuis des années. Des développeurs rapportent que des assistants comme GitHub Copilot ou des modèles accessibles via API permettent de documenter automatiquement du code legacy, générer des tests unitaires et corriger des bugs dans des bibliothèques que personne ne touchait plus faute de temps ou d'intérêt. L'impact est concret pour l'écosystème logiciel dans son ensemble : des milliers de projets open source critiques — souvent intégrés dans des chaînes de dépendances industrielles — souffrent d'un manque chronique de mainteneurs. Si l'IA permet de prolonger leur durée de vie et d'améliorer leur sécurité sans mobiliser de nouvelles ressources humaines, cela représente un changement structurel pour des communautés sous-dimensionnées depuis longtemps. Deux risques majeurs tempèrent cependant l'enthousiasme. D'abord, la question juridique : le code généré par IA peut hériter de licences incompatibles avec l'open source si les modèles ont été entraînés sur des sources propriétaires. Ensuite, la qualité : des contributions générées sans revue rigoureuse peuvent introduire des vulnérabilités silencieuses dans des projets déjà fragiles, déplaçant le problème plus qu'ils ne le résolvent.

UELes développeurs et entreprises européens qui maintiennent ou dépendent de projets open source critiques sont directement concernés par les risques juridiques liés aux licences incompatibles, notamment dans le cadre du droit d'auteur européen.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour