Aller au contenu principal
Anthropic passe aux aveux : « Claude est en réalité une vraie personne »
AutreBlog du Modérateur2h

Anthropic passe aux aveux : « Claude est en réalité une vraie personne »

1 source couvre ce sujet·Source originale ↗·

Le contenu de l'article fourni se limite à une phrase d'accroche — impossible d'écrire un résumé de 150-200 mots sans matière.

Cela dit, vu la date du jour (1er avril 2026), je soupçonne fortement qu'il s'agit d'un poisson d'avril. Tu veux que je :

1. Rédige un article fictif humoristique dans le style demandé, en jouant le jeu du canular 2. Attende que tu colles le vrai contenu de l'article si tu as accès au texte complet

À lire aussi

1ZDNET FR 

Droit d'auteur : OpenAI poursuivi en Allemagne

Autre
1 source
2ZDNET FR 

Apple veut transformer Siri en assistant multitâche, plus rapide et plus complet

Autre
1 source
3Wired AI 

I Asked ChatGPT What WIRED’s Reviewers Recommend—Its Answers Were All Wrong

Autre
1 source
500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés
4La Tribune 

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés

Le 31 mars 2026, une erreur de publication a exposé accidentellement le code source complet de Claude Code, l'assistant de développement phare d'Anthropic. Cette fuite représente environ 500 000 lignes de code, rendues publiquement accessibles avant d'être retirées. L'incident survient seulement quatre jours après un premier incident similaire signalé le 27 mars, suggérant une défaillance systémique dans les processus de déploiement de l'entreprise. L'exposition de ce volume de code source constitue un risque stratégique majeur pour Anthropic. Les fichiers divulgués auraient révélé des projets non annoncés autour d'agents autonomes — des systèmes capables d'agir de manière indépendante, sans supervision humaine constante. Pour une start-up dont la valeur est estimée à 350 milliards de dollars et qui se positionne comme leader de l'IA dite "sûre et responsable", cette double fuite en moins d'une semaine érode la confiance des investisseurs, partenaires et clients entreprises qui misent précisément sur sa rigueur opérationnelle. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI dont Dario et Daniela Amodei, a bâti sa réputation sur la sécurité et l'alignement des IA. La divulgation de projets d'agents autonomes encore non dévoilés alimentera inévitablement les débats sur la transparence des laboratoires d'IA de premier plan, à l'heure où régulateurs européens et américains scrutent de plus près leurs pratiques. La question des mesures internes de contrôle des publications de code — et des éventuelles responsabilités — risque désormais d'occuper le devant de la scène pour l'entreprise.

UELa double fuite en une semaine chez un laboratoire phare de l'IA sécuritaire pourrait accélérer les exigences des régulateurs européens en matière d'audit interne et de transparence des grands labs, dans le cadre de l'application de l'AI Act.

AutreOpinion
1 source