Aller au contenu principal
OutilsLe Big Data1sem

Code Review : Anthropic Claude peut maintenant analyser votre code

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Anthropic lance Code Review pour Claude Code, un outil qui s'intègre à GitHub pour analyser automatiquement les demandes de fusion avant leur intégration. Contrairement aux linters classiques, il cible uniquement les erreurs logiques (ignorant le style), avec un code couleur rouge/jaune/violet pour hiérarchiser les alertes. La solution repose sur une architecture multi-agents travaillant en parallèle, chaque agent analysant le code sous un angle différent, avant qu'un agent final consolide les résultats.

Avec Code Review, Anthropic ajoute un nouveau filet de sécurité au développement assisté par IA. L’outil inspecte chaque modification de code avant son intégration afin de limiter bugs et failles de sécurité. L’IA de codage a sans doute révolutionné le quotidien des développeurs. En quelques secondes, des outils comme Claude Code produisent des blocs entiers de fonctionnalités à partir d’une simple instruction en langage naturel. Cette accélération change le rythme du développement. Cependant, elle entraîne aussi une hausse massive du volume de code à vérifier. Pour répondre à ce défi, Anthropic lance Code Review sur Claude Code. Annoncé lundi, le système d’analyse automatisée examine les demandes de fusion avant leur intégration dans le logiciel. Comment le Code Review d’Anthropic traque les erreurs ? Pour comprendre le fonctionnement de Code Review, regardons d’abord le rôle de Claude Code . L’IA analyse les demandes de fusion avant leur intégration dans le logiciel. Dans la plupart des projets, ces demandes constituent un passage obligatoire. Les développeurs y soumettent leurs modifications afin qu’elles soient vérifiées avant leur déploiement. Cependant, l’essor du code généré par l’IA a multiplié ces demandes. Ainsi, les équipes techniques font face à un véritable goulot d’étranglement. Cat Wu, responsable produit chez Anthropic, l’a confirmé dans une interview accordée à TechCrunch . C’est précisément à ce moment que Code Review intervient. Une fois activée, elle s’intègre directement à GitHub et examine chaque modification soumise. L’IA ajoute alors des commentaires directement dans le code afin de signaler les problèmes potentiels et proposer des pistes de correction. Pour traquer les erreurs logiques Contrairement à d’autres outils automatisés, Code Review ne s’intéresse pas au style de programmation. Anthropic a volontairement choisi de cibler les erreurs logiques . Ce choix vise à éviter les remarques inutiles que de nombreux développeurs jugent frustrantes. Ainsi, l’IA concentre son analyse sur les problèmes réellement critiques. Elle identifie un bug. Elle explique aussi son origine possible puis suggère une solution. Le système détaille également son raisonnement étape par étape. Cette transparence facilite la compréhension du problème , ce qui accélère la correction. Pour hiérarchiser les alertes, l’outil utilise un code couleur simple. Rouge pour les erreurs graves. Jaune pour les anomalies potentielles. Violet pour les problèmes liés à du code déjà existant. Pratique, non ? Une architecture multi-agents pour examiner le code sous tous les angles Toujours selon Wu, la mécanique interne du Code Review d’Anthropic repose sur plusieurs agents d’IA travaillant en parallèle . Chaque agent analyse le code selon un angle spécifique. L’un cherche les erreurs logiques tandis qu’un autre vérifie les incohérences potentielles. Ensuite, un agent final rassemble les résultats. Il supprime les doublons. Il classe également les problèmes et met en avant les éléments prioritaires. Cette architecture accélère évidemment l’analyse. Elle offre aussi une vision plus complète du code examiné. Le responsable produit chez Anthropic évoque également une analyse de sécurité simplifiée , intégrée directement dans la revue de code. Les équipes techniques peuvent même personnaliser certains contrôles selon leurs propres bonnes pratiques internes. À qui s’adresse le Code Review d’Anthropic ? Pour l’instant, Code Review concerne surtout les entreprises. Anthropic propose cette fonctionnalité en avant-première aux abonnés Claude for Teams et Claude for Enterprise . Les responsables techniques peuvent activer la revue de code pour toute leur équipe. L’analyse démarre alors automatiquement sur chaque demande de fusion. Ce positionnement reflète la stratégie actuelle d’Anthropic . L’entreprise mise fortement sur le marché professionnel, où l’adoption de Claude progresse rapidement. Selon la société, les abonnements entreprises ont quadruplé depuis le début de l’année. Le chiffre d’affaires annuel généré par Claude Code dépasse désormais 2,5 milliards de dollars . Plusieurs grandes organisations utilisent déjà cette IA Coding, notamment Uber, Salesforce ou Accenture. Par ailleurs, gardez à l’esprit que la puissance d’analyse de Code Review d’Anthropic n’est pas gratuite. Comme beaucoup de services d’IA, la tarification repose sur l’utilisation de jetons . Le prix varie donc selon la complexité du code analysé. Wu précise que chaque analyse revient en moyenne à 15–25 dollars . Ce positionnement confirme la nature premium du service. L’objectif consiste surtout à aider les entreprises confrontées à une production massive de code généré par IA. Bref, avec Code Review, Anthropic veut transformer Claude en assistant développeur intelligent , capable de filtrer les problèmes avant même qu’un humain ne les examine. Alors, prêt à lui confier votre code ? Cet article Code Review : Anthropic Claude peut maintenant analyser votre code

À lire aussi

1The Verge AI56min

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source