Aller au contenu principal
AutreWired AI1h

I Asked ChatGPT What WIRED’s Reviewers Recommend—Its Answers Were All Wrong

1 source couvre ce sujet·Source originale ↗·

À lire aussi

1ZDNET FR 

Droit d'auteur : OpenAI poursuivi en Allemagne

Autre
1 source
2Le Monde Pixels 

L’histoire folle d’une nouvelle pièce de Molière, coécrite avec l’IA

Autre
1 source
3ZDNET FR 

Apple veut transformer Siri en assistant multitâche, plus rapide et plus complet

Autre
1 source
Le code source de Claude a été divulgué par erreur, que s’est-il passé ?
401net 

Le code source de Claude a été divulgué par erreur, que s’est-il passé ?

Anthropic a involontairement exposé des éléments sensibles de son assistant Claude en publiant une mise à jour de Claude Code contenant un fichier permettant de reconstituer l'intégralité du code source de l'IA. L'incident a été découvert peu après le déploiement de la mise à jour, forçant la start-up californienne à réagir en urgence pour retirer le fichier incriminé. Cette fuite représente un incident majeur pour Anthropic, dont la valeur repose en grande partie sur la propriété intellectuelle de ses modèles. Le code source d'un grand modèle de langage constitue un actif stratégique de premier ordre : il révèle les choix d'architecture, les techniques d'entraînement et les optimisations qui différencient un modèle de ses concurrents. Une telle divulgation pourrait bénéficier directement à des rivaux comme OpenAI, Google DeepMind ou des acteurs open source cherchant à combler leur retard. Anthropic traverse une période de croissance intense, avec une valorisation dépassant les 60 milliards de dollars et des investissements massifs d'Amazon et Google. La sécurité opérationnelle est un enjeu critique pour les labos d'IA de pointe, qui font face à des menaces de fuites industrielles et d'espionnage. Cet incident rappelle que même les entreprises les plus avancées techniquement restent vulnérables aux erreurs humaines dans leurs processus de déploiement.

AutreOpinion
1 source