Aller au contenu principal
Anthropic lance un nouveau modèle Opus dans l'effervescence de la préversion Mythos
LLMsThe Verge AI1h

Anthropic lance un nouveau modèle Opus dans l'effervescence de la préversion Mythos

2 sources couvrent ce sujet·Source originale ↗·
Egalement couvert par :Numerama

Anthropic a lancé Claude Opus 4.7, son modèle grand public le plus puissant à ce jour, disponible dès maintenant via l'API et les interfaces Claude. L'entreprise le positionne comme une progression significative par rapport à Opus 4.6, notamment pour les tâches d'ingénierie logicielle avancées et les scénarios de codage complexes qui nécessitaient auparavant davantage d'intervention humaine. Opus 4.7 apporte également des améliorations en analyse d'images, en suivi d'instructions, et se montre plus créatif dans la génération de présentations et de documents.

Ce lancement consolide la position d'Anthropic dans la course aux modèles de pointe, en offrant aux développeurs et entreprises un outil plus autonome pour les projets techniques ambitieux. La réduction du besoin de supervision humaine dans le codage complexe représente un gain concret de productivité pour les équipes d'ingénierie, et les progrès en compréhension visuelle élargissent les cas d'usage possibles dans l'analyse de données et la création de contenu.

Ce lancement intervient quelques jours seulement après l'annonce de Mythos Preview, un modèle spécialisé en cybersécurité qu'Anthropic présente comme son modèle le plus puissant toutes catégories confondues. La distinction entre les deux est notable : Mythos cible des usages très spécifiques dans la sécurité informatique, tandis qu'Opus 4.7 vise le grand public des utilisateurs professionnels. Anthropic multiplie ainsi les lancements sur un marché où OpenAI, Google et Meta maintiennent une pression constante, et cette stratégie de segmentation par usage pourrait devenir une tendance durable dans l'industrie.

Impact France/UE

Les développeurs et entreprises européens peuvent accéder immédiatement à Opus 4.7 via l'API, avec des gains de productivité concrets pour les équipes d'ingénierie sur des tâches de codage complexe.

À lire aussi

Anthropic lance Claude Opus 4.7 et reprend de justesse la tête des LLM grand public
1VentureBeat AI 

Anthropic lance Claude Opus 4.7 et reprend de justesse la tête des LLM grand public

Anthropic a officiellement lancé Claude Opus 4.7 le 16 avril 2026, son modèle de langage le plus puissant disponible au grand public à ce jour. Le modèle dépasse ses rivaux directs sur plusieurs benchmarks clés : il devance GPT-5.4 d'OpenAI (sorti début mars 2026) et Gemini 3.1 Pro de Google (février 2026) en codage agentique, utilisation d'outils à grande échelle, contrôle autonome d'ordinateurs et analyse financière. Sur le GDPVal-AA, l'évaluation de référence pour le travail de connaissance, Opus 4.7 obtient un score Elo de 1753, contre 1674 pour GPT-5.4 et seulement 1314 pour Gemini 3.1 Pro. En codage agentique (SWE-bench Pro), il résout 64,3 % des tâches contre 53,4 % pour son prédécesseur. Sur le raisonnement visuel (arXiv Reasoning avec outils), il passe de 84,7 % à 91,0 %. Le modèle est disponible dès aujourd'hui sur Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry, avec une tarification API maintenue à 5 $ / 25 $ par million de tokens. À noter qu'Anthropic conserve un modèle encore plus puissant, baptisé Mythos, en accès très restreint auprès de quelques partenaires entreprises pour des tests de cybersécurité. La principale avancée technique réside dans deux domaines : l'autocorrection autonome et la vision haute résolution. Opus 4.7 est capable de concevoir ses propres étapes de vérification avant de déclarer une tâche terminée, dans des tests internes, le modèle a construit un moteur de synthèse vocale en Rust, puis a utilisé indépendamment un reconnaisseur vocal pour valider sa propre sortie audio. Cette logique de vérification réduit significativement les "boucles d'hallucination" typiques des agents IA. Côté vision, le modèle passe à une résolution maximale de 2 576 pixels sur le côté long (environ 3,75 mégapixels), soit trois fois plus qu'auparavant. Sur les tests d'acuité visuelle XBOW, le taux de réussite bondit de 54,5 % à 98,5 %, ouvrant la voie à des agents capables de naviguer sur des interfaces haute densité ou d'analyser des schémas techniques complexes. La course aux modèles frontières entre Anthropic, OpenAI et Google atteint un niveau de compétition sans précédent, les écarts se réduisant drastiquement : sur les benchmarks directement comparables, Opus 4.7 ne devance GPT-5.4 que 7 à 4. OpenAI conserve la tête sur la recherche agentique (89,3 % contre 79,3 %) et le codage en terminal brut. Opus 4.7 se positionne donc non comme un dominateur absolu, mais comme un modèle spécialisé pour les workflows autonomes longue durée, précisément ce que demande l'économie agentique en plein essor. Anthropic avertit par ailleurs que la précision accrue du modèle exige une adaptation des pratiques de prompting : Opus 4.7 suit les instructions à la lettre, ce qui peut amplifier les erreurs si les consignes sont ambiguës.

UEClaude Opus 4.7 est immédiatement accessible aux développeurs et entreprises européens via Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry à tarification inchangée, ouvrant de nouvelles possibilités pour les workflows agentiques longue durée.

Entraînement, alignement et déploiement des LLM : analyse technique approfondie
2MarkTechPost 

Entraînement, alignement et déploiement des LLM : analyse technique approfondie

L'entraînement d'un grand modèle de langage (LLM) moderne repose sur un pipeline en plusieurs étapes distinctes, chacune jouant un rôle précis dans la transformation d'un réseau de neurones brut en un système intelligent et déployable. La première phase, le pré-entraînement, consiste à exposer le modèle à des corpus massifs de textes, livres, sites web, code source, afin qu'il développe une compréhension générale du langage, de la grammaire, du raisonnement et des connaissances du monde. Vient ensuite le fine-tuning supervisé (SFT), où des paires entrée-sortie soigneusement vérifiées permettent d'orienter le comportement du modèle vers des tâches précises, un style de réponse ou des règles métier spécifiques. Pour rendre cette adaptation plus accessible sans recalculer l'intégralité des paramètres du modèle, des techniques comme LoRA (Low-Rank Adaptation) et QLoRA (sa variante quantifiée) permettent un fine-tuning efficace en n'ajustant qu'une fraction des poids. L'alignement avec les préférences humaines passe quant à lui par le RLHF (Reinforcement Learning from Human Feedback), qui affine les sorties selon des critères de sécurité et d'utilité. Plus récemment, GRPO (Group Relative Policy Optimization) est apparu pour renforcer les capacités de raisonnement structuré et de résolution de problèmes en plusieurs étapes. Comprendre ce pipeline est essentiel pour quiconque développe ou intègre des LLMs dans des produits réels. Chaque étape conditionne la suivante : un pré-entraînement faible rend le fine-tuning peu efficace, et un mauvais alignement produit des modèles imprévisibles ou dangereux en production. Le SFT, par exemple, peut transformer une réponse générique ("Essayez de réinitialiser votre mot de passe") en une réponse structurée et empathique adaptée au service client. Les techniques LoRA et QLoRA démocratisent l'adaptation de modèles de grande taille sur du matériel accessible, réduisant les coûts de calcul de manière significative. Le RLHF, popularisé notamment par OpenAI avec ChatGPT, reste la référence pour aligner les modèles sur les attentes humaines, tandis que GRPO représente la nouvelle frontière pour les modèles de raisonnement comme DeepSeek-R1 ou les variantes o1 d'OpenAI. Ce pipeline s'est construit progressivement depuis les premières architectures Transformer de 2017, avec des jalons comme GPT-3 en 2020, qui a démontré la puissance du pré-entraînement à grande échelle, puis InstructGPT en 2022, qui a introduit le RLHF comme standard d'alignement. Aujourd'hui, la course entre les acteurs majeurs, OpenAI, Google DeepMind, Meta, Mistral, Anthropic, se joue précisément sur l'optimisation de ces étapes : qualité des données d'entraînement, efficacité du fine-tuning, robustesse de l'alignement. La montée en puissance des modèles de raisonnement en 2024-2025 a replacé GRPO et les approches similaires au centre des stratégies de recherche, laissant entrevoir des LLMs capables d'une résolution de problèmes complexes nettement plus fiable qu'aujourd'hui.

UEMistral, acteur français, est cité parmi les compétiteurs majeurs dans la course à l'optimisation des pipelines d'entraînement LLM.

LLMsTuto
1 source
Claude Opus 4.7 : Le nouveau monstre d’Anthropic arrive (peut-être) cette semaine !
3Le Big Data 

Claude Opus 4.7 : Le nouveau monstre d’Anthropic arrive (peut-être) cette semaine !

Anthropic s'apprêterait à lancer Claude Opus 4.7, la prochaine itération de son modèle phare, potentiellement dès cette semaine. L'information provient de The Information, qui rapporte que l'identifiant "Claude Opus 4.7" a déjà été repéré dans les références internes de l'API d'Anthropic, un signal qui précède généralement de peu une annonce officielle. Un utilisateur du réseau X, sous le pseudonyme BridgeMind, a également alimenté les spéculations en relevant que Claude Opus 4.5 avait été publié 73 jours avant Opus 4.6, sorti le 5 février 2026. Au 14 avril, 68 jours s'étaient déjà écoulés depuis cette dernière version, plaçant la prochaine sortie dans la fenêtre habituelle de déploiement. Le code source de Claude Code ayant par ailleurs déjà mentionné Opus 4.7, les indices convergent, sans qu'Anthropic ait pour autant confirmé quoi que ce soit officiellement. Si les rumeurs s'avèrent fondées, Claude Opus 4.7 apporterait des améliorations substantielles sur plusieurs fronts critiques : le raisonnement en plusieurs étapes, la gestion de tâches longues et complexes, et surtout la coordination entre agents d'IA. Anthropic travaillerait sur un concept d'"équipe d'agents", où plusieurs modèles collaborent sur un même problème comme le ferait un groupe de travail humain. Cette architecture permettrait à des systèmes autonomes de fonctionner pendant de longues périodes avec une intervention humaine minimale, une capacité très attendue par les entreprises qui intègrent l'IA dans leurs workflows. En parallèle, The Information évoque également un assistant tout-en-un capable de gérer des tâches complètes comme la création de sites web ou de présentations, en intégrant rédaction, design et mise en place technique dans un processus unifié. Ce lancement s'inscrit dans une course effrénée entre les grands laboratoires d'IA. OpenAI, Google et Anthropic accélèrent tous leurs cycles de publication, les intervalles entre versions majeures se réduisant à quelques semaines. Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, positionne Claude comme une alternative axée sur la sécurité et la fiabilité. Avec Opus 4.7, la société chercherait à consolider son avance sur le segment des agents autonomes et des tâches longue durée, un marché entreprise à fort potentiel. Les suites dépendront de la réaction des concurrents : OpenAI prépare ses propres modèles o3 et GPT-5, tandis que Google continue de faire évoluer Gemini Ultra. La semaine à venir pourrait donc marquer une nouvelle étape dans la compétition mondiale pour les modèles de langage de pointe.

LLMsOpinion
1 source
[AINews] Le dernier souffle de l'humanité
4Latent Space 

[AINews] Le dernier souffle de l'humanité

La semaine du 3 et 4 avril 2026 a été marquée par une série de lancements techniques majeurs dans l'industrie de l'IA. Google a introduit les "Skills" dans Chrome, permettant aux utilisateurs de transformer des prompts Gemini en actions réutilisables d'un seul clic sur n'importe quelle page web. Google DeepMind a publié Gemini Robotics-ER 1.6, un modèle de raisonnement spatial atteignant 93% de réussite en lecture d'instruments et améliorant la manipulation d'objets contraignants comme les liquides. OpenAI a étendu son programme Trusted Access avec GPT-5.4-Cyber, une version affinée pour les workflows de sécurité défensive. Hugging Face a lancé "Kernels" sur le Hub, des artefacts GPU précompilés affichant des gains de performance de 1,7x à 2,5x sur les bases PyTorch. Cursor, en collaboration avec NVIDIA, a déployé un système multi-agents d'optimisation CUDA atteignant 38% d'accélération en moyenne sur 235 benchmarks. Par ailleurs, Tencent a teasé HYWorld 2.0, un modèle 3D open source capable de générer des scènes éditables à partir d'une seule image, repositionnant les world models comme outils de création 3D plutôt que de génération vidéo. Ces annonces s'inscrivent dans un paradoxe que la newsletter AINews nomme le "Turkey Problem" : les modèles progressent à vitesse record, SWE-Bench est saturé, Mythos (le modèle interne d'Anthropic) atteint 78% sur SWE-Bench Pro, et GDPval évalue GPT-5.4 comme équivalent ou supérieur à des experts humains dans 83% des secteurs économiques, et pourtant les ingénieurs et travailleurs du savoir n'ont jamais été aussi occupés. Aaron Levie, CEO de Box, observe que ses équipes n'ont jamais autant travaillé. Tyler Cowen soutient qu'il faut travailler davantage maintenant, quelle que soit sa position sur l'impact de l'IA. Simon Last de Notion, lui, décrit des nuits sans sommeil liées à "l'anxiété des tokens au niveau agents". Plus les agents produisent, plus les humains courent derrière, du moins pour l'instant. La question sous-jacente est celle du point de bascule : jusqu'où la valeur humaine restera-t-elle "élastique" face à l'automatisation, avant d'atteindre le sort des chevaux après l'invention du moteur à combustion ? Notion travaille sur un benchmark interne baptisé "Notion's Last Exam", les chercheurs Greg Brockman et François Chollet planchent sur ARC-AGI-3, et plusieurs équipes cherchent à définir les prochaines frontières des évaluations en programmation. Mais ces efforts paraissent relativisés par une hypothèse de plus en plus discutée : si l'AGI dépend avant tout de la puissance matérielle, un supercalculateur de 20 gigawatts suffirait à franchir le seuil. L'IA avance vite, les benchmarks tombent les uns après les autres, et l'industrie tente encore de définir ce qui restera hors de portée des machines.

UELe lancement des Kernels par Hugging Face (entreprise française) sur son Hub apporte des gains de performance GPU directs (1,7x à 2,5x) aux développeurs et chercheurs européens utilisant PyTorch.

💬 Le Turkey Problem, c'est ce paradoxe qu'on sent tous mais qu'on arrive pas encore à nommer clairement : les modèles explosent les benchmarks, GPT-5.4 jugé aussi bon que des experts dans 83% des secteurs, et tout le monde bosse plus qu'avant, pas moins. Logique : plus l'outil produit, plus le scope s'élargit, et c'est nous qui courons derrière pour absorber la valeur générée. La comparaison avec les chevaux est là, dans la pièce, et personne n'ose vraiment finir la phrase.

LLMsActu
1 source