Aller au contenu principal
OutilsThe Verge AI2h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

Anthropic has launched an "auto mode" for Claude Code , a new tool that lets AI make permissions-level decisions on users' behalf. The company says the feature offers vibe coders a safer alternative between constant handholding or giving the model dangerous levels of autonomy. Claude Code is capable of acting independently on users' behalf, a useful but risky feature as it can also do things users don't want, like deleting files, sending out sensitive data, and executing malicious code or hidden instructions . Auto mode is designed to prevent this, flagging and blocking potentially risky actions before they run and offering the agent a chan … Read the full story at The Verge.

À lire aussi

1Le Big Data28min

GEO : stratégies infaillibles pour apparaître dans les réponses IA

En 2026, être premier sur Google ne suffit plus. Les moteurs de recherche basés sur l'intelligence artificielle — ChatGPT, Perplexity, Gemini — s'imposent comme de nouveaux points d'entrée majeurs vers l'information et les marques. ChatGPT revendique à lui seul 900 millions d'utilisateurs hebdomadaires, et sur Google, un résultat sur quatre est désormais accompagné d'un aperçu généré par l'IA. Face à cette réalité, une nouvelle discipline s'impose : le GEO, ou Generative Engine Optimization, qui consiste à optimiser sa présence non plus pour les algorithmes classiques, mais pour les réponses formulées directement par les IA. Les premières étapes recommandées sont concrètes : identifier 10 à 15 questions représentatives de sa clientèle cible, les tester régulièrement sur les principales plateformes IA, et cartographier les citations de sa marque par rapport à celles des concurrents. Ce suivi mensuel est indispensable, car les modèles évoluent en permanence. Ce changement de paradigme oblige les entreprises à repenser leur stratégie de contenu de fond en comble. Les moteurs d'IA ne citent pas n'importe quelle source : ils privilégient les textes précis, structurés, étayés par des données chiffrées et des avis d'experts, organisés autour des questions réelles des utilisateurs avec des titres clairs et des FAQ. Le balisage de schéma et les données structurées facilitent l'intégration du contenu dans les réponses générées. Développer une autorité thématique profonde sur un sujet, plutôt que de disperser ses efforts sur de nombreux articles superficiels, devient un avantage décisif. À cela s'ajoute une recommandation moins attendue : investir Reddit et les forums communautaires. Les IA considèrent ces échanges comme des sources fiables ; une présence authentique sur 2 à 3 semaines, sans autopromotion agressive mais avec une participation honnête mentionnant avantages et limites d'un produit, augmente significativement les chances d'être repris. Enfin, figurer dans des classements publiés par des sites de référence reste un levier puissant, les IA s'appuyant volontiers sur ces listes pour formuler leurs recommandations. Le SEO traditionnel n'est pas mort pour autant — il reste la fondation sur laquelle repose le GEO, puisque les IA puisent souvent dans les pages les mieux classées sur Google pour construire leurs réponses. La visibilité dans les moteurs génératifs n'est donc pas une alternative au référencement classique, mais une couche supplémentaire qui suppose de le maîtriser d'abord.

UELes entreprises françaises et européennes doivent adapter leur stratégie de contenu pour maintenir leur visibilité face à la montée des moteurs de recherche génératifs.

OutilsTuto
1 source
2Blog du Modérateur2h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog3h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI3h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source