Aller au contenu principal
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
AutreInfoQ AI1h

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

1 source couvre ce sujet·Source originale ↗·

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging.

La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan.

Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

À lire aussi

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise
101net 

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise

Le collier intelligent Friend, gadget de la start-up américaine du même nom, a été interdit à la vente en France et dans l'ensemble de l'Union européenne. Le produit, un pendentif connecté capable d'écouter en continu son environnement et d'entretenir des conversations avec son porteur via une intelligence artificielle, avait été lancé avec une campagne publicitaire visible dans les stations de métro parisiennes, cherchant à séduire un public européen friand de nouveaux objets connectés. L'interdiction ne surprend guère les observateurs du secteur : un dispositif d'écoute permanente porté sur soi soulève des questions fondamentales en matière de protection des données personnelles. Le règlement européen RGPD impose des obligations strictes sur la collecte et le traitement des données audio, notamment le consentement explicite des tiers enregistrés à leur insu. Or, un collier qui capte les conversations autour de son porteur, sans que les personnes présentes en soient informées, contrevient frontalement à ces principes. Pour les utilisateurs comme pour les entreprises, ce type de produit ouvre également des risques sécuritaires liés à l'enregistrement involontaire d'informations sensibles. Friend s'inscrit dans une vague de gadgets IA "compagnons" qui ont tenté de percer en 2024 et 2025, à l'image du Humane Ai Pin ou du Rabbit R1, tous confrontés à des obstacles commerciaux ou réglementaires. L'Europe, avec son cadre juridique parmi les plus exigeants au monde sur la vie privée et désormais renforcé par l'AI Act, constitue un terrain particulièrement difficile pour ces objets d'écoute ambiante. La décision française pourrait faire jurisprudence pour d'autres dispositifs similaires à venir.

UEL'interdiction de vente en France et dans l'UE du collier Friend fait jurisprudence pour les dispositifs d'écoute ambiante, confirmant que le RGPD et l'AI Act constituent des obstacles réglementaires majeurs pour ce type de gadget IA compagnon.

💬 Un collier qui t'écoute en permanence sans prévenir les gens autour de toi, interdit en Europe... difficile de faire plus prévisible. Le RGPD n'est pas une nouveauté, il date de 2018. La vraie question c'est comment ce produit a pu lever des fonds et tourner des pubs dans le métro parisien avant que quelqu'un lève la main.

AutreReglementation
1 source
OpenAI propose des politiques industrielles pour la superintelligence
2The Information AI 

OpenAI propose des politiques industrielles pour la superintelligence

OpenAI a publié lundi un document de 13 pages proposant une série de politiques industrielles pour préparer les économies à l'arrivée de systèmes d'intelligence artificielle surpassant les capacités humaines. Parmi les mesures envisagées figurent des réformes fiscales et l'adoption d'une semaine de travail de quatre jours, ainsi que la mise en place de bourses de recherche destinées à anticiper les bouleversements du marché du travail. Ces propositions signalent qu'OpenAI prend au sérieux l'impact économique massif que pourrait engendrer la superintelligence sur l'emploi et la productivité. Une réduction du temps de travail hebdomadaire serait une réponse directe à l'automatisation accélérée, permettant de redistribuer les gains de productivité générés par l'IA vers les travailleurs plutôt que de les concentrer exclusivement entre les mains des entreprises technologiques. Ce document intervient alors qu'OpenAI intensifie ses efforts vers l'AGI et la superintelligence, deux jalons qu'il estime désormais atteignables à court terme. En s'impliquant dans le débat sur les politiques publiques, l'entreprise tente de façonner le cadre réglementaire et économique avant que ces systèmes n'arrivent sur le marché, une démarche qui rappelle les initiatives similaires de Google DeepMind et Anthropic pour influencer les législations en cours d'élaboration aux États-Unis et en Europe.

UEOpenAI cherche à influencer les cadres réglementaires européens en cours d'élaboration autour de l'AGI, notamment sur les questions d'emploi et de redistribution des gains de productivité liés à l'automatisation.

AutreReglementation
1 source
Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman
3Ars Technica AI 

Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman

Le même jour où OpenAI publiait ses recommandations politiques pour garantir que l'intelligence artificielle bénéficie à l'humanité en cas d'avènement d'une superintelligence, le magazine The New Yorker lançait une vaste enquête sur la fiabilité de Sam Altman, PDG d'OpenAI, quant à la tenue des grandes promesses de l'entreprise. Cette coïncidence éditoriale crée un contraste saisissant : d'un côté, un document institutionnel affirmant qu'OpenAI s'engage à "garder les humains en premier" alors que l'IA commencera à "surpasser les humains les plus intelligents, même assistés par l'IA" ; de l'autre, une investigation journalistique alimentée par des témoignages d'anciens collaborateurs qui doutent que ce discours soit sincère. L'enquête du New Yorker met en lumière une fracture profonde au sein même de l'organisation : des initiés, anciens employés ou proches du dossier, estiment que le problème central n'est pas la technologie mais son dirigeant. Sam Altman est décrit comme un leader dont les décisions et le style de management sèment la méfiance en interne. Pendant ce temps, le document de politique d'OpenAI reconnaît explicitement des risques extrêmes, notamment la possibilité que des systèmes d'IA échappent au contrôle humain ou que des gouvernements s'en servent pour saper la démocratie. L'entreprise promet de rester "lucide" et transparente sur ces dangers, mais la crédibilité de cet engagement est précisément ce que l'enquête remet en question. Cette tension intervient dans un contexte où OpenAI, valorisée à plusieurs dizaines de milliards de dollars et en pleine transformation vers une structure à but lucratif, est scrutée de toutes parts. La course à la superintelligence oppose des acteurs comme Google DeepMind, Anthropic et Meta, tous engagés dans une compétition technologique sans précédent. La question de la gouvernance, et de la confiance accordée aux dirigeants qui pilotent ces systèmes, est désormais au coeur du débat public. Si les promesses d'OpenAI sur la sécurité et la transparence sont prises au sérieux par les régulateurs et le grand public, leur crédibilité repose largement sur la personne qui les incarne.

UELes régulateurs européens scrutent la gouvernance des grands labs d'IA dans le cadre de l'AI Act ; une crise de confiance envers la direction d'OpenAI pourrait renforcer les exigences de transparence et d'audit imposées aux fournisseurs de modèles à haut risque.

AutreOpinion
1 source
OpenAI esquisse une économie de l'IA : fonds souverains, taxes sur les robots et semaine de quatre jours
4TechCrunch AI 

OpenAI esquisse une économie de l'IA : fonds souverains, taxes sur les robots et semaine de quatre jours

OpenAI a publié un document de politique économique dans lequel l'entreprise propose une série de mesures pour atténuer les effets de l'intelligence artificielle sur l'emploi et les inégalités. Parmi les pistes évoquées figurent une taxation des profits générés par l'IA, la création de fonds souverains publics alimentés par ces revenus, des filets de sécurité sociale élargis, une semaine de travail de quatre jours et une forme de dividende universel lié aux gains de productivité de l'IA. Ces propositions interviennent alors que les décideurs politiques cherchent des réponses concrètes à une question de plus en plus pressante : comment redistribuer équitablement les richesses produites par l'automatisation ? Pour des millions de travailleurs exposés aux déplacements d'emploi, ces mécanismes représenteraient une transformation profonde du contrat social, en faisant de l'IA un moteur de prospérité partagée plutôt qu'une source de concentration des richesses. OpenAI occupe une position paradoxale en formulant ces recommandations : c'est l'une des entreprises qui accélère le plus la disruption qu'elle propose de corriger. Le document s'inscrit dans un débat croissant entre Silicon Valley, gouvernements et économistes sur la gouvernance de l'IA, alors que des propositions similaires circulent en Europe et que le G7 commence à intégrer la question fiscale liée à l'automatisation dans ses agendas.

UELes propositions d'OpenAI s'inscrivent dans un débat européen actif sur la fiscalité de l'IA et la redistribution des gains de productivité, le G7 ayant déjà intégré ces questions fiscales liées à l'automatisation à son agenda.

AutreReglementation
1 source