Aller au contenu principal
AutreZDNET FRà l'instant

Apple veut transformer Siri en assistant multitâche, plus rapide et plus complet

1 source couvre ce sujet·Source originale ↗·

À lire aussi

1ZDNET FR 

Droit d'auteur : OpenAI poursuivi en Allemagne

Autre
1 source
2Wired AI 

I Asked ChatGPT What WIRED’s Reviewers Recommend—Its Answers Were All Wrong

Autre
1 source
500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés
3La Tribune 

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés

Le 31 mars 2026, une erreur de publication a exposé accidentellement le code source complet de Claude Code, l'assistant de développement phare d'Anthropic. Cette fuite représente environ 500 000 lignes de code, rendues publiquement accessibles avant d'être retirées. L'incident survient seulement quatre jours après un premier incident similaire signalé le 27 mars, suggérant une défaillance systémique dans les processus de déploiement de l'entreprise. L'exposition de ce volume de code source constitue un risque stratégique majeur pour Anthropic. Les fichiers divulgués auraient révélé des projets non annoncés autour d'agents autonomes — des systèmes capables d'agir de manière indépendante, sans supervision humaine constante. Pour une start-up dont la valeur est estimée à 350 milliards de dollars et qui se positionne comme leader de l'IA dite "sûre et responsable", cette double fuite en moins d'une semaine érode la confiance des investisseurs, partenaires et clients entreprises qui misent précisément sur sa rigueur opérationnelle. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI dont Dario et Daniela Amodei, a bâti sa réputation sur la sécurité et l'alignement des IA. La divulgation de projets d'agents autonomes encore non dévoilés alimentera inévitablement les débats sur la transparence des laboratoires d'IA de premier plan, à l'heure où régulateurs européens et américains scrutent de plus près leurs pratiques. La question des mesures internes de contrôle des publications de code — et des éventuelles responsabilités — risque désormais d'occuper le devant de la scène pour l'entreprise.

UELa double fuite en une semaine chez un laboratoire phare de l'IA sécuritaire pourrait accélérer les exigences des régulateurs européens en matière d'audit interne et de transparence des grands labs, dans le cadre de l'application de l'AI Act.

💬 Deux fuites en quatre jours chez le champion auto-proclamé de l'IA responsable, c'est saignant. Pas tant pour le code lui-même, qui sera archivé et analysé partout d'ici ce soir, mais pour les projets d'agents autonomes qui traînaient dans les fichiers sans jamais avoir été annoncés. Pour une boîte qui vend précisément sa rigueur comme argument commercial, la question des régulateurs va être difficile à esquiver.

AutreOpinion
1 source
4Maddyness 

Défense : le Royaume-Uni place l’IA au cœur de sa stratégie d’innovation

Autre
1 source