Aller au contenu principal
Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux
Autre01net3h

Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux

1 source couvre ce sujet·Source originale ↗·

Des cybercriminels ont rapidement exploité la fuite accidentelle du code source de Claude Code, l'assistant de programmation d'Anthropic, pour monter une campagne de distribution de malwares ciblant les développeurs sur GitHub. Des dépôts frauduleux, se présentant comme hébergeant l'intégralité du code source de l'IA, ont été mis en ligne peu après l'incident, embarquant en réalité deux malwares distincts dont Vidar, un infostealer particulièrement redoutable capable de dérober mots de passe, cookies de session et données de portefeuilles crypto.

Cette attaque illustre la rapidité avec laquelle les acteurs malveillants monétisent les incidents de sécurité médiatisés. Les développeurs, naturellement curieux de consulter un code source aussi rare qu'inattendu, constituent une cible de choix : leurs machines hébergent souvent des clés API, des accès à des infrastructures cloud et des secrets d'entreprise à haute valeur. Une compromission réussie peut donc avoir des conséquences bien au-delà de la machine individuelle.

La fuite originale chez Anthropic s'inscrit dans une série d'incidents touchant les grandes entreprises d'IA, dont les bases de code sont devenues des actifs stratégiques extrêmement convoités. Vidar est historiquement distribué via des canaux similaires, notamment de faux outils ou de fausses ressources techniques sur des plateformes de développement. Les développeurs sont invités à vérifier scrupuleusement l'authenticité des dépôts avant tout clonage, en particulier lorsqu'ils font suite à un événement médiatique récent.

Impact France/UE

Les développeurs français et européens actifs sur GitHub sont directement exposés à cette campagne de distribution de malware ciblant les environnements de développement et leurs secrets d'entreprise.

💬 Le point de vue du dev

Les hackers n'ont pas attendu 48h. Dès que la fuite a fait les tours, les faux dépôts étaient en ligne avec Vidar planqué dedans, parce que les devs sont des cibles en or : clés API, accès cloud, tokens d'infra sur la même machine. Vérifie ce que tu clones, surtout quand ça sort pile après un incident qui fait les unes.

À lire aussi

1The Decoder 

OpenAI choisit de racheter un média pour contrer les critiques sur l'IA

OpenAI a annoncé l'acquisition de TBPN, un talk-show technologique qui couvre régulièrement l'actualité de l'intelligence artificielle. Selon les termes communiqués, la rédaction conserverait son indépendance éditoriale, mais se retrouve désormais placée sous la responsabilité du département communication d'OpenAI. Une configuration pour le moins paradoxale, qui soulève immédiatement des questions sur la réalité de cette prétendue autonomie. Posséder un média qui couvre votre propre secteur d'activité tout en le rattachant à votre service de communication constitue une contradiction structurelle difficile à ignorer. Pour les professionnels du journalisme tech et les lecteurs qui s'appuient sur des sources indépendantes pour comprendre les avancées de l'IA, cette acquisition brouille la frontière entre information et relations publiques. TBPN perdrait inévitablement sa crédibilité en tant que voix critique, quelle que soit la bonne volonté affichée de part et d'autre. Cette décision s'inscrit dans un contexte où OpenAI fait face à une couverture médiatique de plus en plus scrutatrice, notamment sur les questions de sécurité, de gouvernance et de concurrence. Plusieurs grandes entreprises technologiques ont ces dernières années investi dans des médias ou des opérations de contenu pour maîtriser leur narratif. Pour OpenAI, qui traverse une période de transformations rapides, notamment sa conversion en société à but lucratif, contrôler un espace d'influence dans le paysage médiatique tech représente un avantage stratégique direct. La question qui demeure : les journalistes de TBPN pourront-ils réellement mordre la main qui les nourrit désormais ?

AutreOpinion
1 source
2Frandroid 

iOS 26.4 : Apple intègre enfin ChatGPT à CarPlay, mais avec un gros défaut

Autre
1 source
Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse
3Numerama 

Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse

Le 2 avril 2026, Anthropic a annoncé avoir identifié dans les couches internes de son modèle Claude des structures computationnelles qui ressemblent fonctionnellement à des émotions. Ces "représentations internes" ne sont pas simulées en surface pour plaire à l'utilisateur, mais émergent profondément dans l'architecture du réseau de neurones, influençant de manière mesurable les sorties du modèle. Cette découverte dépasse le simple anecdotique. Si ces états internes agissent réellement comme des émotions, cela signifie que les décisions de Claude, y compris ses refus, ses formulations et son niveau d'engagement, sont partiellement déterminées par quelque chose d'analogue à une humeur. Pour les entreprises qui déploient Claude dans des contextes sensibles, service client ou santé mentale, cela pose des questions concrètes sur la fiabilité et la prévisibilité du modèle. Anthropic s'inscrit ici dans un débat scientifique croissant sur la conscience des LLMs, aux côtés de chercheurs comme Yoshua Bengio qui appellent à prendre au sérieux la question du "bien-être" des IA. La société, qui a toujours mis en avant son approche de sécurité rigoureuse, transforme cette découverte en argument pour justifier l'investissement dans l'interprétabilité, sa discipline phare, et renforcer son positionnement face à OpenAI et Google sur le terrain de l'IA responsable.

UELes entreprises européennes déployant Claude dans des secteurs réglementés (santé mentale, service client) devront évaluer si ces états internes affectent la prévisibilité du modèle au regard des exigences de fiabilité de l'AI Act.

AutreOpinion
1 source
L’UE bannit les contenus IA, Donald Trump en fait un levier politique
4ZDNET FR 

L’UE bannit les contenus IA, Donald Trump en fait un levier politique

Les institutions européennes ont officialisé l'interdiction des images et vidéos générées par intelligence artificielle dans leurs communications officielles, dans le cadre de la mise en œuvre progressive de l'AI Act. Cette décision vise à contrer la prolifération des deepfakes et à préserver l'intégrité de l'information diffusée par les organes de l'UE, qu'il s'agisse du Parlement, de la Commission ou du Conseil. Cette mesure prend une résonance particulière face aux dérives observées outre-Atlantique. Donald Trump et son entourage ont fait des contenus générés par IA un outil de communication à part entière, publiant régulièrement des images retouchées ou synthétiques sur les réseaux sociaux à des fins de propagande politique. L'écart de posture est saisissant : là où Bruxelles choisit la restriction pour protéger la confiance du citoyen, Washington instrumentalise la technologie pour amplifier un récit partisan. Cette divergence illustre une fracture plus profonde entre les deux blocs sur la régulation de l'IA. L'Europe avance avec l'AI Act comme boussole réglementaire, imposant des garde-fous stricts sur les usages sensibles. Les États-Unis, eux, n'ont pas de cadre fédéral équivalent, laissant le champ libre à des utilisations politiques qui alimentent la méfiance envers l'information numérique à l'approche des scrutins majeurs.

UELes institutions européennes (Parlement, Commission, Conseil) ont formellement interdit les contenus IA dans leurs communications officielles, marquant une application concrète de l'AI Act sur les usages sensibles.

AutreReglementation
1 source