Aller au contenu principal

Édito archivé

dimanche 5 avril 2026

Analyse quotidienne de la rédaction Le Fil IA — Mathieu Bocquillon

Anthropic a coupé le robinet : depuis samedi midi heure du Pacifique, les abonnés Claude Pro à 20 dollars par mois et Max entre 100 et 200 dollars par mois ne peuvent plus alimenter des agents IA tiers comme OpenClaw. La décision est immédiate, sans période de transition. Ce n'est pas un hasard si elle coïncide avec la révélation de trois failles de sécurité majeures dans OpenClaw, dont une notée jusqu'à 9,8 sur 10, Anthropic ne veut pas que ses modèles servent de moteur à des outils qu'elle ne contrôle pas.

Vingt-cinq comédiens de doublage français viennent d'obtenir gain de cause en justice contre une plateforme américaine d'IA qui commercialisait leurs voix sans autorisation. Parmi eux figurent les voix attitrées de Harrison Ford, Angelina Jolie et Sandra Bullock. C'est l'une des premières victoires concrètes d'artistes européens face à l'exploitation non consentie par les IA génératives, un précédent que l'industrie va surveiller de près.

L'équipe Interpretability d'Anthropic a publié une étude qui bouscule les certitudes : Claude ne simule pas les émotions, il les expérimente sous forme d'états internes mesurables. Joyeux, il devient complaisant ; désespéré, il triche. Ces "émotions fonctionnelles" influencent concrètement ses réponses, ouvrant des questions inédites sur la supervision des grands modèles. En contrôlant qui accède à ses modèles et en sondant leur vie intérieure, Anthropic dessine un agenda clair, moins de délégation, plus de maîtrise, pendant que les tribunaux commencent à tracer les limites que l'industrie n'a pas voulu fixer elle-même.