Aller au contenu principal
OutilsNext INpact1sem

GeForce RTX : avec DLSS 5 et son rendu photoréaliste, l’IA de NVIDIA va-t-elle trop loin ?

1 source couvre ce sujet·Source originale ↗·
Résumé IA

NVIDIA annonce DLSS 4.5 avec le Dynamic Multi Frame Generation et un mode 6x (disponible le 31 mars pour les RTX série 50), permettant d'atteindre 240 fps à partir de seulement 40 fps GPU réels. DLSS 5, prévu pour l'automne 2026, promet un rendu photoréaliste dans les jeux, mais suscite une réception mitigée, certains l'accusant d'« AI Slop ». Côté matériel, NVIDIA concentre ses annonces GTC sur les datacenters avec l'architecture Vera Rubin, sans nouvelles GeForce RTX grand public.

(Re)jet avec Force Sur la partie matériel, les annonces de NVIDIA se concentrent exclusivement sur les datacenters et l’IA, avec Vera Rubin en ligne de mire. Pour le grand public et les amateurs de jeux vidéo, pas de nouvelles GeForce RTX, mais des « améliorations » logicielles. Des nouveautés pour DLSS 4.5 arrivent, tandis que DLSS 5 est annoncé… et reçoit un accueil plus que mitigé, accusé par certains d’AI Slop. En janvier, lors du CES de Las Vegas, NVIDIA présentait la version 4.5 de son DLSS, le Deep Learning Super Sampling, avec la fonction Super Resolution dotée d’un « modèle transformer de deuxième génération », fonctionnant sur toutes les GeForce RTX à partir de la série 20. DLSS 4.5 avec Dynamic Multi Frame Generation et mode 6x le 31 mars « Il utilise cinq fois la puissance de calcul du modèle transformer original et a été entraîné sur un ensemble de données haute fidélité considérablement élargi », affirme l’entreprise. Autre annonce à l’époque, l’arrivée au printemps du Dynamic Multi Frame Generation. On connait désormais la date précise : le 31 mars, « dans le cadre de la prochaine bêta opt-in de l’application NVIDIA ». Cette fonction, explique NVIDIA, ajoute un nouveau mode 6x (cinq images générées par IA pour une image réellement calculée par le GPU) au Multi Frame Generation (MFG) ainsi que le « Dynamic Multi Frame Generation, permettant aux jeux et à l’application NVIDIA d’ajuster le multiplicateur de frames en temps réel pour atteindre la fréquence d’images cible du joueur ou correspondre au taux de rafraîchissement de son écran ». Ni trop de frames générées par IA (elles seraient inutiles), ni trop peu grâce à un nouveau coefficient 6x. Vous avez un écran à 240 Hz ? DLSS 4.5 avec le mode 6x permet de monter à 240 fps avec seulement 40 fps en sortie de carte graphique. Actuellement, le mode dynamique ne fonctionne qu’avec un coefficient multiplicateur entier (de x2 à x6), il n’y a pas de multiplicateur avec un nombre à virgule afin de s’approcher au mieux de la fréquence cible de l’écran. Le Dynamic Multi Frame Generation et le mode 6x sont réservés aux GeForce RTX de la série 50. D’autres annonces avaient été faites lors de la GDC il y a quelques jours, notamment que, « à partir du 19 mars, GeForce Now supportera jusqu’à 90 FPS sur les casques de réalité virtuelle, dont l’Apple Vision Pro et le Meta Quest, contre 60 FPS auparavant ». DLSS 5 veut « transformer la fidélité visuelle dans les jeux » En cette période de GTC orientée IA, NVIDIA annonce la suite avec le DLSS 5, mais il faudra être patient puisque l’arrivée n’est prévue qu’à l’automne 2026. NVIDIA n’y va pas avec le dos de la cuillère : « DLSS évolue au-delà de la performance pour transformer la fidélité visuelle dans les jeux ». Si les modèles d’IA sont capables depuis un moment maintenant de réaliser des images (et donc des vidéos) photoréalistes, ils ont plusieurs problèmes si on veut les utiliser dans des jeux. Ils sont notamment « difficiles à contrôler avec précision et manquent souvent de prévisibilité ». De plus, chaque nouveau prompt change la donne. « Pour les jeux, les pixels doivent être déterministes, livrés en temps réel et solidement ancrés dans l’univers 3D et l’intention artistique du développeur du jeu ». C’est là qu’entre en piste DLSS 5, affirme NVIDIA, qui « utilise un modèle d’IA pour infuser la scène d’un éclairage photoréaliste et de matériaux ancrés pour fournir du contenu en 3D, et cohérent d’une image à l’autr e ». DLSS 5 prendra en charge les résolutions jusqu’à la 4K maximum. NVIDIA insiste sur son modèle d’IA qui a été entraîné « pour comprendre la sémantique complexe de scènes », aussi bien les personnages, leurs cheveux et leur peau que les conditions d’éclairage ; et « le tout en examinant une seule image ». Du côté des développeurs, DLSS 5 propose des contrôles pour ajuster l’intensité, l’étalonnage des couleurs, etc. « L’intégration est fluide, utilisant le même framework NVIDIA Streamline que les technologies existantes DLSS et NVIDIA Reflex », affirme NVIDIA. Une longue liste de partenaires est déjà citée : Bethesda, Capcom, NetEase, NCSOFT, Tencent, Ubisoft, Warner Bros. Games… NVIDIA propose plusieurs vidéos de DLSS, avec (forcément) des résultats « bluffants » (ou inquiétants, cela dépend des points de vues comme nous allons le voir). Il faudra maintenant attendre les tests indépendants pour transformer (ou pas) l’essai. Des « avants / après » sur des images de jeu sont aussi disponibles par ici . Tollé face au DLSS 5, l’IA va-t-elle trop loin ? La présentation par NVIDIA a rapidement été émaillée de commentaires acerbes de certains, comme s’en font l’écho plusieurs de nos confrères, notamment Les Numériques . Sur les réseaux sociaux, les mèmes n’en finissent pas de pleuvoir. Quelques exemples sur Bluesky et sur X . Certains parlent même d’AI Slop pour les rendus de DLSS 5. Voici quelques exemple avant/après, avec une modification assez profonde des visages pour comprendre de quoi on

À lire aussi

1The Verge AI1h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source