Aller au contenu principal
Le mode Auto d'Anthropic supprime la supervision manuelle de Claude
LLMsAI Business6sem

Le mode Auto d'Anthropic supprime la supervision manuelle de Claude

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic franchit un nouveau cap dans l'autonomie de son assistant Claude en lançant un mode baptisé Auto, qui permet à l'IA de prendre des décisions et d'effectuer des actions sans attendre la validation manuelle de l'utilisateur à chaque étape. Ce changement représente une évolution significative dans la façon dont les développeurs et les professionnels interagissent avec les outils d'IA générative au quotidien.

L'enjeu est considérable pour le secteur : la supervision humaine était jusqu'ici présentée comme un garde-fou essentiel pour garantir la fiabilité des sorties produites par les grands modèles de langage. En supprimant ce point de contrôle intermédiaire, Anthropic parie sur la maturité de Claude pour gérer des tâches complexes en autonomie, à l'image de ce que proposent déjà certains agents IA concurrents dans des environnements de développement logiciel.

Le revers de la médaille est reconnu par l'entreprise elle-même : le mode Auto peut entraîner davantage d'hallucinations et produire du code de moindre qualité. Sans boucle de rétroaction humaine en temps réel, le modèle peut accumuler des erreurs sur plusieurs étapes sans correction immédiate. Le gain de productivité est réel, mais il s'accompagne d'un transfert de responsabilité vers l'utilisateur final, qui devra redoubler de vigilance lors de la relecture des résultats.

Cette décision s'inscrit dans une course à l'autonomie que se livrent les grands acteurs de l'IA — OpenAI, Google DeepMind et Anthropic en tête — pour proposer des agents capables de travailler en arrière-plan sur des workflows entiers. Le curseur entre efficacité et fiabilité reste un défi ouvert, et le lancement de ce mode sera probablement suivi de près par les équipes d'ingénierie qui en feront l'usage en production.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Claude Mythos : la prochaine IA surpuissante d’Anthropic vient de fuiter
1Le Big Data 

Claude Mythos : la prochaine IA surpuissante d’Anthropic vient de fuiter

Une fuite technique a exposé l'existence de Claude Mythos, le prochain grand modèle d'Anthropic, bien avant toute annonce officielle. Deux experts en cybersécurité ont découvert près de 3 000 fichiers internes accessibles librement en ligne, parmi lesquels un brouillon détaillant ce projet baptisé en interne « Capybara ». La publication Fortune a confirmé l'affaire, et Anthropic n'a pas nié : l'entreprise a elle-même qualifié Mythos de « bond de capacité » par rapport à Claude Opus 4.6, actuellement considéré comme l'un des modèles les plus puissants du marché. Les premiers benchmarks évoqués dans les documents montrent des gains significatifs en programmation, en raisonnement académique et surtout en cybersécurité, où l'écart avec Opus serait particulièrement marqué. Mythos s'inscrit au-delà de la gamme actuelle Haiku / Sonnet / Opus — un quatrième palier inédit, plus puissant et plus coûteux que tout ce qu'Anthropic a jamais déployé. Ce qui rend la situation délicate, c'est qu'Anthropic refuse pour l'instant tout déploiement grand public. La raison avancée en interne est claire : le modèle est jugé trop risqué pour une diffusion ouverte, en particulier à cause de ses capacités en cybersécurité, qui dépassent les protocoles de sécurité habituels de la firme. L'accès est donc limité à un cercle restreint de clients professionnels triés sur le volet, sans calendrier de lancement public annoncé. À cela s'ajoute un coût d'infrastructure sans précédent — faire tourner Mythos consomme des ressources massives, ce qui rend son déploiement à grande échelle à la fois risqué et économiquement complexe. Pour Anthropic, entreprise qui a construit toute sa réputation sur la sécurité responsable de l'IA, la fuite est doublement embarrassante : elle expose non seulement un produit non finalisé, mais aussi les tensions internes autour de la gestion du risque. La fuite survient à un moment particulièrement sensible pour Anthropic. L'entreprise est en pleine offensive commerciale en Europe, avec un sommet privé prévu au Royaume-Uni réunissant des dirigeants européens, en présence de Dario Amodei lui-même — signal fort d'une stratégie d'expansion assumée sur le marché professionnel continental. L'objectif est de s'imposer comme fournisseur d'automatisation intelligente de référence face à OpenAI et Google, en misant sur des standards de fiabilité stricts. En arrière-plan, une introduction en bourse (IPO) serait dans les plans, ce qui rend toute controverse publique particulièrement mal venue. La question que pose désormais Claude Mythos dépasse la performance pure : jusqu'où une entreprise peut-elle retenir un modèle qu'elle juge elle-même trop capable, et qui décide des conditions de son accès ?

UELe sommet privé d'Anthropic au Royaume-Uni réunissant des dirigeants européens en présence de Dario Amodei signale une offensive commerciale directe sur le marché professionnel continental, susceptible d'accélérer l'adoption de l'automatisation IA dans les entreprises européennes.

💬 C'est la première fois qu'Anthropic dit publiquement qu'un de leurs modèles est trop risqué pour le marché, et c'est pas rien. La fuite est gênante pour eux, surtout avec l'IPO en vue, mais le vrai sujet c'est ce palier au-dessus d'Opus qu'on n'attendait pas si tôt. Reste à voir si le "trop dangereux" c'est du marketing safety ou une vraie ligne rouge.

LLMsActu
1 source
2Latent Space 

Anthropic Claude Opus 4.7 : une longueur d'avance sur 4.6 dans chaque dimension

Anthropic a lancé Claude Opus 4.7 le jeudi 14 avril 2026, positionnant ce nouveau modèle comme une amélioration nette et systématique par rapport à son prédécesseur Opus 4.6 sur l'ensemble des dimensions mesurées. Le tarif reste inchangé à 5 dollars par million de tokens en entrée et 25 dollars par million en sortie. La progression est quantifiable : le niveau d'effort 4.7-low surpasse le 4.6-medium, le 4.7-medium dépasse le 4.6-high, et le 4.7-high efface le 4.6-max. Anthropic introduit par ailleurs un nouveau palier d'effort baptisé "xhigh", immédiatement adopté comme niveau par défaut dans Claude Code. Sur SWE-Bench Pro, le benchmark de référence pour l'évaluation des agents de développement, Claude Code gagne 11 points. La vision est également revue en profondeur : Opus 4.7 accepte désormais des images jusqu'à 2 576 pixels sur le grand côté, soit environ 3,75 mégapixels, plus de trois fois la résolution supportée par les versions précédentes. Ces améliorations ont des répercussions concrètes pour plusieurs catégories d'utilisateurs professionnels. Les développeurs utilisant Claude Code bénéficient immédiatement du gain de performance en programmation, avec une meilleure gestion des tâches longues, un suivi plus précis des instructions et une auto-vérification renforcée avant de répondre. La résolution d'image étendue ouvre des cas d'usage auparavant impossibles : agents d'utilisation de l'ordinateur lisant des captures d'écran denses, extraction de données depuis des schémas complexes, travail nécessitant des références pixel par pixel. Autre point notable sur l'économie des tokens : malgré un nouveau tokenizer qui peut générer jusqu'à 35 % de tokens supplémentaires sur un même texte, les gains d'efficacité de raisonnement sont suffisants pour réduire la consommation totale de tokens de jusqu'à 50 % par rapport aux niveaux équivalents de la génération précédente. Anthropic lance également en bêta publique un système de "task budgets", un outil /ultrareview dans Claude Code, et un accès élargi au mode Auto pour les abonnés Claude Code Max. Ce lancement s'inscrit dans une séquence de publications majeures qui rythment le marché de l'IA depuis début 2026. OpenAI avait publié le même jour GPT-Rosalind et une nouvelle version de Codex, mais la trajectoire d'Anthropic a capté l'essentiel de l'attention technique. La communauté débat encore du statut exact d'Opus 4.7 : successeur direct d'Opus 4.6, modèle sur nouvelle base d'entraînement, ou système partiellement distillé depuis une architecture interne de plus grande taille ? Le nouveau tokenizer découvert par plusieurs chercheurs alimente cette interrogation sur la nature des changements en préentraînement. Les semaines à venir permettront de mesurer si les gains de benchmark se traduisent en gains réels dans les usages quotidiens des développeurs et des entreprises qui intègrent Claude dans leurs produits.

UELes développeurs et entreprises européennes intégrant Claude via l'API bénéficient immédiatement des gains de performance et de la réduction de consommation de tokens, sans surcoût tarifaire.

💬 Le même prix, et chaque palier 4.7-low dépasse le 4.6-medium, le 4.7-medium écrase le 4.6-high. C'est le genre de saut qu'on attendait. Sur le tokenizer qui génère 35% de tokens supplémentaires, Anthropic annonce -50% de consommation globale en raisonnement, mais bon, faut voir ce que ça donne sur de vrais contextes longs avant de se réjouir.

LLMsActu
1 source
Anthropic transforme Claude en assistant autonome capable d’agir sur votre ordinateur
3Siècle Digital 

Anthropic transforme Claude en assistant autonome capable d’agir sur votre ordinateur

Anthropic a doté Claude d'une fonctionnalité appelée « computer use », lui permettant d'agir de manière autonome sur un ordinateur sans intervention humaine. Cette avancée marque un tournant majeur dans l'utilisation des IA, ouvrant la voie à des assistants capables d'exécuter des tâches concrètes directement sur les systèmes des utilisateurs. Cette évolution transforme profondément la façon dont les professionnels peuvent déléguer des tâches à l'intelligence artificielle.

UELes professionnels et entreprises européens peuvent désormais déléguer des tâches informatiques complexes à Claude, avec des implications potentielles pour la réglementation sur les agents IA autonomes dans le cadre de l'AI Act.

LLMsActu
1 source
[AINews] Bulletin Claude Cowork : la réponse d'Anthropic à OpenClaw
4Latent Space 

[AINews] Bulletin Claude Cowork : la réponse d'Anthropic à OpenClaw

Anthropic a lancé Claude Cowork, une réponse directe à OpenClaw qui est saluée favorablement par des personnalités comme Simon Willison et Ethan Mollick. OpenAI a simultanément déployé GPT-5.4 mini et nano, des modèles compacts 2x plus rapides que GPT-5 mini, avec une fenêtre de contexte de 400k tokens et ciblant le code, les agents et l'utilisation multimodale — mais à des prix plus élevés (0,75 $/M tokens en entrée pour mini). L'infrastructure agentique s'impose comme le nouveau centre de gravité du secteur, avec une course aux sandbox sécurisés, à l'orchestration et aux outils de déploiement au-delà des seuls modèles de base.

LLMsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour