Aller au contenu principal
Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18
InfrastructureFrandroid2h

Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18

1 source couvre ce sujet·Source originale ↗·

Intel a dévoilé une nouvelle technologie de compression neuronale baptisée TSNC (Texture Space Neural Compression), capable de réduire la taille des textures de jeux vidéo jusqu'à un facteur 18. Concrètement, un jeu qui occupe aujourd'hui 100 Go sur votre SSD pourrait n'en réclamer que quelques gigaoctets de données textures, tandis que la mémoire vidéo nécessaire au rendu en temps réel serait drastiquement allégée. La technologie repose sur des réseaux de neurones entraînés à compresser puis reconstruire les textures à la volée, à la manière d'un codec vidéo mais appliqué aux surfaces 3D.

L'enjeu est considérable pour les joueurs PC, confrontés à une inflation galopante des tailles de jeux : certains titres récents dépassent les 150 à 200 Go, et les cartes graphiques milieu de gamme peinent à suivre avec leurs 8 à 12 Go de VRAM. Une compression neuronale efficace permettrait de démocratiser l'accès aux jeux les plus exigeants sans forcer les utilisateurs à investir dans du matériel haut de gamme, et soulagerait les SSD qui atteignent souvent leurs limites de capacité.

Cette annonce s'inscrit dans une course technologique plus large entre les fabricants de GPU : Nvidia propose déjà des solutions similaires avec ses technologies de compression basées sur l'IA, et AMD travaille sur des approches comparables. Intel, dont l'arc GPU cherche encore à s'imposer sur le marché, mise sur le TSNC comme argument différenciant. La prochaine étape sera l'adoption par les studios de développement, qui devront intégrer ces outils dans leurs pipelines de création pour que la technologie tienne réellement ses promesses en conditions réelles.

À lire aussi

Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk
1The Verge AI 

Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk

Intel s'associe au projet Terafab d'Elon Musk, une gigafabrique de puces IA en cours de construction à Austin, au Texas. Le fabricant américain de semi-conducteurs a annoncé mardi qu'il participait à la conception et à la construction de cette installation, dont l'objectif est de fournir des puces IA aux deux entreprises de Musk : SpaceX, récemment fusionnée avec xAI, et Tesla. Aucun chiffre d'investissement n'a été rendu public pour l'instant, mais l'ampleur du site laisse entrevoir un projet de plusieurs milliards de dollars. Ce partenariat est stratégique pour les deux parties. Musk a besoin de volumes massifs de puces pour alimenter ses ambitions : voitures autonomes, robots humanoïdes, et des centres de données qu'il envisage de déployer dans l'espace via SpaceX. Pour Intel, qui traverse une période difficile face à TSMC et Nvidia, décrocher un contrat avec l'un des acteurs les plus en vue de l'IA américaine représente un signal fort sur sa capacité à rester compétitif dans la course aux semi-conducteurs avancés. Terafab s'inscrit dans un mouvement plus large de relocalisation de la production de puces aux États-Unis, accéléré par le CHIPS Act et les tensions géopolitiques autour de Taiwan. Musk, dont SpaceX prépare son introduction en bourse cette année, cherche à sécuriser une chaîne d'approvisionnement indépendante des fabricants asiatiques. Intel, de son côté, mise sur son activité de fonderie pour reconquérir des parts de marché perdues face à ses concurrents.

UELa concentration croissante de la production de puces IA aux États-Unis via des méga-projets comme Terafab risque de renforcer la dépendance européenne vis-à-vis des fournisseurs américains de semi-conducteurs, au détriment des ambitions du Chips Act européen.

InfrastructureActu
1 source
L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises
2VentureBeat AI 

L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises

Les réseaux radio à intelligence artificielle, connus sous l'acronyme AI-RAN, s'imposent progressivement comme une refonte profonde de l'infrastructure sans fil en entreprise. Lors d'une conversation avec VentureBeat, Chris Christou, vice-président senior chez Booz Allen, et Shervin Gerami, directeur général au Cerberus Operations Supply Chain Fund, ont détaillé les contours de cette transformation. Christou résume l'enjeu : l'AI-RAN permet d'étendre les promesses de la 5G, et demain de la 6G, en hébergeant directement de l'inférence IA au niveau de la périphérie du réseau, pour des cas d'usage comme la fabrication intelligente ou les entrepôts autonomes. Gerami va plus loin : selon lui, l'AI-RAN n'est pas une mise à niveau réseau, c'est un système d'exploitation pour les industries physiques. Le concept se décline en trois niveaux distincts : l'IA pour le RAN (optimisation interne du réseau), l'IA sur le RAN (exécution de charges de travail IA comme la vision par ordinateur ou l'inférence LLM locale), et enfin l'IA et le RAN conjointement, où applications et infrastructure radio sont conçues ensemble comme un système distribué coordonné. L'impact concret de cette convergence est considérable pour les secteurs industriels, logistiques et de santé. Le principe ISAC (Integrated Sensing and Communications) transforme le réseau lui-même en capteur, capable de détecter des mouvements, de suivre des actifs avec une précision inférieure au mètre dans des usines ou des hôpitaux, d'identifier des intrusions périmètriques ou d'optimiser la consommation énergétique de bâtiments intelligents. Là où les entreprises gèrent aujourd'hui des dizaines de systèmes distincts -- caméras, radars, capteurs de mouvement, traceurs d'actifs -- l'ISAC pourrait consolider ces capacités nativement dans le réseau, réduisant les coûts de maintenance, d'intégration et de gestion des fournisseurs. Pour les applications critiques comme la robotique en temps réel, l'inspection qualité instantanée ou la maintenance prédictive, la réduction de latence qu'offre l'IA en périphérie représente souvent la différence entre un système opérationnel et un système inutilisable. Cette dynamique s'inscrit dans un mouvement plus large de convergence entre cloud computing et infrastructure physique. Pendant des décennies, l'innovation applicative a été l'apanage du cloud ; l'AI-RAN ouvre la même logique d'écosystème développeur au niveau du réseau radio. Les acteurs positionnés sur ce marché -- cabinets de conseil comme Booz Allen, fonds d'investissement industriels comme Cerberus -- anticipent que la valeur ne réside plus dans le transport passif de données, mais dans la capacité à orchestrer des opérations autonomes directement depuis l'infrastructure réseau. La transition vers la 6G, attendue dans la seconde moitié de la décennie, devrait accélérer cette convergence, en faisant du réseau non plus un tuyau, mais une couche fondamentale de l'économie de l'IA physique.

UEL'AI-RAN concerne directement les secteurs industriels européens (fabrication, logistique, santé) en ouvrant la voie à une inférence IA décentralisée sur les réseaux 5G/6G, un enjeu stratégique pour la compétitivité industrielle de l'UE.

InfrastructureOpinion
1 source
L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA
3IEEE Spectrum AI 

L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA

L'intelligence artificielle consomme des quantités colossales d'énergie, et cette réalité pousse chercheurs et entreprises à repenser en profondeur la manière dont les modèles sont entraînés. Plutôt que de continuer à concentrer le calcul dans d'immenses centres de données centralisés, une approche émerge : la décentralisation de l'entraînement, qui distribue le travail sur un réseau de nœuds indépendants. Des acteurs comme Nvidia, avec son infrastructure Spectrum-XGS Ethernet conçue pour relier des clusters GPU géographiquement séparés, ou Cisco avec son routeur 8223 destiné à connecter des clusters d'IA dispersés, ont déjà commercialisé des solutions dans ce sens. Plus radical encore, Akash Network propose une place de marché pair-à-pair baptisée "l'Airbnb des centres de données" : des entreprises ou particuliers disposant de GPU sous-utilisés les louent à ceux qui en ont besoin, sans construction d'infrastructure supplémentaire. Sur le plan logiciel, l'apprentissage fédéré permet à plusieurs organisations d'entraîner localement un modèle partagé, en n'échangeant que les poids du modèle avec un serveur central qui les agrège, sans jamais centraliser les données brutes. L'enjeu est considérable : l'entraînement représente l'une des phases les plus énergivores du cycle de vie d'un modèle d'IA, et les émissions carbone liées aux grands modèles de langage ne cessent d'augmenter. La décentralisation offre une réponse concrète en permettant au calcul d'aller là où l'énergie existe déjà, qu'il s'agisse d'un serveur dormant dans un laboratoire de recherche ou d'un ordinateur alimenté par des panneaux solaires. Cela évite de surcharger les réseaux électriques en construisant toujours plus de centres de données, et ouvre la voie à un modèle économique inédit où de petits GPU, jusqu'ici négligés, deviennent des ressources valorisables. Comme le souligne Greg Osuri, cofondateur d'Akash Network, le monde passe progressivement d'une dépendance exclusive aux GPU les plus puissants vers une utilisation combinée de matériels plus modestes mais abondants. Cette évolution s'inscrit dans un contexte où les grandes entreprises technologiques, faute d'avancées matérielles suffisamment rapides pour suivre la croissance des modèles, explorent déjà la mutualisation de plusieurs centres de données. L'approche décentralisée soulève néanmoins des défis techniques sérieux : les échanges constants de poids de modèles génèrent des coûts de communication élevés, et la moindre défaillance d'un nœud peut obliger à recommencer un lot d'entraînement entier. Pour y répondre, des chercheurs de Google DeepMind ont développé DiLoCo, un algorithme d'optimisation à faible communication conçu spécifiquement pour l'entraînement distribué. Les solutions nucléaires envisagées par les géants du secteur restent à plusieurs années de distance ; la décentralisation, elle, est déjà opérationnelle.

UELa décentralisation de l'entraînement pourrait alléger la pression sur les réseaux électriques européens, déjà sous tension face à la prolifération des centres de données.

InfrastructureOpinion
1 source
Anthropic signe un accord de 3,5 gigawatts avec Broadcom et Google pour des TPU