Aller au contenu principal
AutreHuggingFace Blog2h

Granite 4.0 3B Vision: Compact Multimodal Intelligence for Enterprise Documents

1 source couvre ce sujet·Source originale ↗·

À lire aussi

Anthropic publie accidentellement le code source de Claude Code en accès public
1The Decoder 

Anthropic publie accidentellement le code source de Claude Code en accès public

Anthropic a accidentellement rendu public une partie du code source de Claude Code, son outil d'assistance à la programmation propulsé par l'IA. L'incident, révélé par The Decoder, s'est produit lorsque des fichiers normalement destinés à rester internes ont été accessibles publiquement, permettant à quiconque de les consulter sans autorisation particulière. Il s'agit de la deuxième mésaventure de ce type en peu de temps pour l'entreprise, qui avait déjà vu fuiter des billets de blog internes concernant son futur modèle baptisé Mythos. Cette exposition involontaire du code source est embarrassante pour Anthropic à plusieurs titres. Claude Code est un produit commercial actif, et la divulgation de son implémentation interne peut permettre à des concurrents d'analyser ses choix techniques, ses architectures et potentiellement ses vulnérabilités. Pour les utilisateurs professionnels et entreprises qui s'appuient sur cet outil, la question de la sécurité et de la robustesse des pratiques internes d'Anthropic devient légitime. Cet incident survient dans un contexte de compétition intense entre les grands acteurs de l'IA — OpenAI, Google DeepMind, Meta et Anthropic — où la confidentialité des développements internes représente un avantage stratégique majeur. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, se positionne sur le créneau de l'IA sûre et responsable. Ces fuites répétées fragilisent cette image de sérieux opérationnel, au moment même où la société cherche à s'imposer dans le segment entreprise face à des concurrents mieux établis.

AutreActu
1 source
OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé
2VentureBeat AI 

OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé

Un agent IA personnel nommé OpenClaw s'est retrouvé au cœur d'une faille de sécurité majeure exposée lors de la conférence RSAC 2026. Le 22 février, un acteur malveillant utilisant le pseudonyme « fluffyduck » a mis en vente sur BreachForums un accès root au poste d'un PDG britannique pour 25 000 dollars en cryptomonnaie. La marchandise principale n'était pas l'accès machine lui-même, mais l'intégralité de l'instance OpenClaw du dirigeant : l'historique complet de ses conversations avec l'IA, la base de données de production de son entreprise, des tokens Telegram, des clés API Trading 212, ainsi que des informations personnelles sur sa famille et ses finances. Le chercheur Vitaly Simonovich de Cato CTRL a documenté l'annonce dès le 25 février. L'instance OpenClaw stockait tout en fichiers Markdown en clair sous ~/.openclaw/workspace/, sans chiffrement. L'attaquant n'avait rien à exfiltrer — le PDG avait lui-même tout centralisé. Lors d'un contrôle en direct sur Censys effectué à RSAC 2026, Etay Maor, VP Threat Intelligence chez Cato Networks, a observé une croissance explosive : 6 300 instances la première semaine de lancement, 230 000 la semaine suivante, puis près de 500 000 au moment de la vérification — quasiment un doublement en sept jours. Trois CVE à haute sévérité définissent la surface d'attaque : CVE-2026-24763 (CVSS 8.8, injection de commande via Docker), CVE-2026-25157 (CVSS 7.7, injection OS) et CVE-2026-25253 (CVSS 8.8, exfiltration de tokens). Plus de 30 000 instances présentent des risques de sécurité détectés, dont 15 200 exploitables via des RCE connues selon SecurityScorecard. L'absence totale de plan de gestion d'entreprise constitue le problème structurel central. Lorsque l'équipe de sécurité du PDG a découvert la compromission, il n'existait aucun kill switch natif, aucune console d'administration et aucun moyen d'inventorier les instances actives dans l'organisation. Les trois CVE ont été patchées, mais sans mécanisme centralisé de mise à jour ni de désactivation à distance, chaque administrateur doit intervenir manuellement — et la plupart ne l'ont pas fait. Quatre éditeurs ont présenté des réponses à RSAC 2026 sans pour autant fournir le contrôle le plus basique : un kill switch d'entreprise natif. Ce cas illustre une tension fondamentale dans l'adoption rapide des agents IA. OpenClaw s'exécute localement avec accès direct au système de fichiers, aux connexions réseau, aux sessions navigateur et aux applications installées — une autonomie qu'aucune entreprise n'accorderait à un employé humain sans contrôle. La marketplace ClawHub a par ailleurs distribué ClawHavoc, un skill malveillant parmi 341 identifiés comme dangereux, devenu le cas d'école principal du classement OWASP Agentic Skills Top 10. Le PDG de CrowdStrike, George Kurtz, l'a cité dans son keynote RSAC 2026 comme la première attaque majeure sur la chaîne d'approvisionnement d'un écosystème d'agents IA. Les capteurs Falcon de CrowdStrike détectent déjà plus de 1 800 applications IA distinctes sur les endpoints clients, générant 160 millions d'instances uniques — un volume qui rend l'absence de gouvernance centralisée d'autant plus critique à mesure que ces outils s'installent dans les environnements professionnels.

UELes entreprises européennes déployant des agents IA autonomes doivent auditer d'urgence leurs instances et appliquer manuellement les correctifs des trois CVE critiques, aucun mécanisme centralisé de mise à jour n'étant disponible.

AutreActu
1 source
Le code source de l'agent de codage d'Anthropic exposé dans une fuite
3The Information AI 

Le code source de l'agent de codage d'Anthropic exposé dans une fuite

Anthropic a accidentellement divulgué une partie du code source de son application Claude Code, a confirmé la société mardi. La fuite, remarquée tôt dans la matinée par des développeurs, a exposé des détails inédits sur le fonctionnement interne de l'outil de programmation assistée par IA, ainsi que des références à des modèles et fonctionnalités encore non annoncés. Cet incident est significatif pour l'industrie car Claude Code est l'un des agents de codage les plus utilisés du moment, directement concurrent de GitHub Copilot et Cursor. L'exposition du code source permet à des concurrents d'analyser l'architecture interne du produit, ses mécanismes de raisonnement et potentiellement d'anticiper la roadmap produit d'Anthropic — un avantage concurrentiel non négligeable dans un secteur en compétition intense. Anthropic a reconnu publiquement l'erreur, ce qui suggère que la fuite n'était pas intentionnelle et que la société a cherché à limiter rapidement les dégâts. La divulgation accidentelle de code propriétaire est un risque opérationnel croissant pour les laboratoires d'IA, dont les produits reposent sur des systèmes de prompts et d'orchestration souvent aussi précieux que les modèles eux-mêmes. L'incident intervient alors qu'Anthropic intensifie sa mise sur le marché des outils développeurs, un segment stratégique face à OpenAI et Google.

AutreActu
1 source
Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »
4La Tribune 

Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »

Keri Pearlson, chercheuse au MIT Sloan School of Management spécialisée en cybersécurité et gouvernance numérique, a accordé un entretien en marge du Forum InCyber, qui se tient à Lille jusqu'au 2 avril 2026. Sa mise en garde est directe : le principal danger de l'IA générative en entreprise ne réside pas dans ses failles techniques, mais dans la confiance excessive que lui accordent salariés et dirigeants. Selon elle, cette sur-confiance fragilise des organisations qui peinent déjà à instaurer une véritable culture de la cybersécurité. L'enjeu est concret : lorsque les collaborateurs délèguent aveuglément des décisions ou des tâches sensibles à des outils d'IA, ils contournent sans le savoir les garde-fous humains qui constituent la dernière ligne de défense contre les cyberattaques. Les dirigeants, souvent séduits par les gains de productivité, sous-estiment les nouveaux vecteurs de risque introduits par ces outils — phishing augmenté, manipulation sémantique, fuites de données via des prompts mal maîtrisés. L'IA ne remplace pas le risque humain, elle le démultiplie. Ce constat s'inscrit dans un contexte où la culture cyber reste un chantier inachevé dans la plupart des entreprises : formations insuffisantes, responsabilités floues, écart persistant entre discours de direction et pratiques terrain. Le Forum InCyber, rendez-vous annuel qui rassemble experts, industriels et décideurs publics européens, illustre l'urgence du sujet. Les travaux de Pearlson au MIT pointent vers une nécessité : intégrer la gouvernance de l'IA directement dans les stratégies de cybersécurité, plutôt que de traiter les deux disciplines séparément.

UEL'interview se tient au Forum InCyber de Lille, rendez-vous européen de référence en cybersécurité, et ses recommandations sur la gouvernance IA s'adressent directement aux entreprises et décideurs publics français et européens.

AutreOpinion
1 source