Aller au contenu principal
InfrastructureLe Big Data3h

La Corée du Sud investit dans la startup locale qui défie Nvidia avec ses puces IA

1 source couvre ce sujet·Source originale ↗·

Le gouvernement sud-coréen a annoncé mardi un investissement de 166 millions de dollars (250 milliards de wons) dans Rebellions, une startup spécialisée dans les puces d'intelligence artificielle fondée en 2020. Cet investissement, validé par la Commission des services financiers et le conseil consultatif des technologies stratégiques, est le premier déblocage concret du « Fonds national de croissance » dans le cadre du programme « K-Nvidia », co-piloté avec le ministère des Sciences et des TIC. Rebellions conçoit des unités de traitement neuronal (NPU) dédiées à l'inférence IA — la phase où les modèles répondent aux requêtes en temps réel. Son architecture, notamment la puce ATOM, se distingue par une consommation énergétique nettement inférieure aux solutions concurrentes. Fonctionnant sur un modèle « fabless », la société sous-traite la fabrication à des fonderies spécialisées. Depuis six mois, elle a levé 650 millions de dollars, portant son total à 850 millions et sa valorisation à plus de 2 milliards de dollars.

Cet investissement public s'inscrit dans une stratégie de réduction de la dépendance aux infrastructures américaines, et plus précisément à Nvidia, qui domine aujourd'hui le marché des puces IA avec une emprise quasi monopolistique sur les data centers mondiaux. Cette concentration donne à un seul acteur un pouvoir considérable sur les prix, les délais de livraison et l'accès aux technologies critiques — une vulnérabilité que les États commencent à prendre très au sérieux. Rebellions cible déjà des clients cloud, des opérateurs télécoms et des gouvernements, et s'implante aux États-Unis, au Japon, au Moyen-Orient et à Taïwan, signalant des ambitions clairement internationales. Pour la Corée du Sud, soutenir ce type d'acteur, c'est aussi consolider une filière industrielle cohérente : le pays maîtrise déjà la mémoire vive avec Samsung et SK Hynix, mais reste exposé sur le segment des puces de calcul IA.

La décision de Séoul intervient dans un contexte de course mondiale aux semi-conducteurs qui s'emballe. Les géants technologiques américains devraient investir collectivement entre 630 et 700 milliards de dollars en infrastructure IA cette année selon Reuters, tandis que la Chine, malgré les restrictions américaines à l'export, accélère le développement de ses propres filières. Les tensions géopolitiques entre Washington et Pékin ont transformé les semi-conducteurs en outil de pression diplomatique, rendant les chaînes d'approvisionnement imprévisibles. Dans ce contexte, le programme K-Nvidia représente le pari de Séoul de ne pas rater la fenêtre d'opportunité : construire un champion national de la puce IA avant que le marché soit structurellement verrouillé par les acteurs déjà en place.

Impact France/UE

La dépendance européenne aux puces Nvidia étant structurellement similaire à celle de la Corée du Sud, l'émergence de concurrents asiatiques comme Rebellions pourrait à terme diversifier les options d'approvisionnement pour les acteurs européens du cloud et de l'IA.

À lire aussi

NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA
1Le Big Data 

NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA

NVIDIA et Marvell Technology ont annoncé un partenariat stratégique majeur, scellé par un investissement de 2 milliards de dollars de NVIDIA dans Marvell. L'accord s'articule autour de NVLink Fusion, une plateforme modulaire permettant de construire des infrastructures d'IA semi-personnalisées. Concrètement, Marvell apportera des XPU (processeurs accélérés sur mesure) et un réseau évolutif compatible, tandis que NVIDIA fournit l'ensemble de son arsenal matériel : processeurs Vera, cartes réseau ConnectX, DPU BlueField, interconnexion NVLink, commutateurs Spectrum-X et capacité de calcul déployable en rack. Le titre Marvell a bondi de 11 % dès l'annonce mardi, signe que les marchés ont immédiatement perçu la portée de l'accord. Le partenariat couvre également les réseaux télécoms, via NVIDIA Aerial AI-RAN, avec des ambitions sur la 5G et la future 6G, ainsi que sur des technologies d'interconnexion optique et de photonique sur silicium pour améliorer les performances et réduire la consommation énergétique. Pour les entreprises qui développent leurs propres puces d'accélération, NVLink Fusion ouvre la voie à des architectures hybrides entièrement compatibles avec l'écosystème NVIDIA — GPU, réseau et stockage compris. C'est un changement structurel : jusqu'ici, intégrer des composants tiers dans une infrastructure NVIDIA relevait du casse-tête d'interopérabilité. Désormais, les hyperscalers, opérateurs télécom et acteurs du cloud pourront combiner des XPU Marvell avec la stack NVIDIA sans friction. Pour les utilisateurs finaux, l'impact est indirect mais réel : des modèles d'IA générative plus complexes pourront tourner à moindre latence, ce qui se traduit par des services de recommandation, de création de contenu ou de simulation plus réactifs. Dans les télécoms, l'alliance prépare le terrain pour des réseaux 5G/6G capables de supporter des usages exigeants comme la télémédecine en temps réel ou les véhicules autonomes. Ce rapprochement s'inscrit dans un contexte de demande explosive en capacité de calcul, portée par la généralisation de l'IA générative et l'explosion des volumes de données. Jensen Huang, PDG de NVIDIA, parle lui-même d'une "ère de supercalcul" en cours d'avènement. Face à cette pression, les grandes entreprises technologiques mondiales s'engagent dans une course à la construction de centres de calcul dédiés, et NVIDIA cherche à s'imposer comme la colonne vertébrale incontournable de ces infrastructures. Marvell, de son côté, se repositionne comme fournisseur clé de silicium personnalisé pour l'IA — un marché en pleine effervescence où Amazon, Google et Microsoft développent déjà leurs propres puces. L'investissement de 2 milliards de dollars de NVIDIA dans Marvell est autant un signal industriel qu'une manœuvre défensive : consolider l'écosystème avant que les alternatives ne s'imposent.

UELes opérateurs télécom et fournisseurs cloud européens pourront intégrer des architectures hybrides XPU Marvell / stack NVIDIA sans friction, accélérant leurs déploiements 5G/6G et d'IA générative.

InfrastructureOpinion
1 source
Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial
2Le Big Data 

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial

En octobre 2025, Sam Altman a conclu des accords préliminaires avec les deux géants mondiaux de la mémoire vive, Samsung Electronics et SK Hynix, pour réserver 900 000 wafers de DRAM par mois — soit environ 40 % de la production mondiale totale. Ces lettres d'intention, signées sans commande ferme ni paiement immédiat, ont suffi à déclencher une onde de choc sur le marché. Les deux fabricants coréens ignoraient qu'ils s'engageaient simultanément pour les mêmes volumes. Résultat : un kit DDR5-6000 de 32 Go, qui coûtait 139 € avant ces annonces, s'affiche aujourd'hui à plus de 340 € chez des revendeurs comme LDLC. En mars 2026, la situation s'est encore aggravée lorsqu'OpenAI a rompu son engagement de 71 milliards de dollars avec SK Hynix, faisant chuter les actions de Micron et semant la panique chez les distributeurs qui avaient déjà anticipé la pénurie en masquant leurs tarifs publics. L'impact est immédiat et concret pour des millions d'utilisateurs. Les fabricants comme Micron ont fermé leur division grand public — la marque Crucial a pratiquement disparu des rayons — pour rediriger leurs lignes de production vers la mémoire HBM destinée aux centres de données IA. TrendForce estime que les datacenters capteront 70 % de la production mondiale de puces en 2026, ne laissant que des miettes au marché des PC. La part de la mémoire dans le coût d'un ordinateur HP est passée de 15 % à 35 %. Les consoles portables comme le Steam Deck de Valve sont en rupture de stock dans le monde entier, faute de composants disponibles. Gartner prévoit une chute des ventes de PC d'entrée de gamme et de configurations accessibles aux petits budgets, pénalisant directement les étudiants, les travailleurs indépendants et les pays émergents. Cette crise illustre un phénomène plus large : la mainmise croissante des géants de l'IA sur les chaînes d'approvisionnement en semi-conducteurs, au détriment du marché grand public. OpenAI, forte de la confiance des marchés et de ses investisseurs, a pu bloquer une fraction massive de la production mondiale sans débourser un centime, simplement par le poids de sa signature. Ce type de spéculation sur lettres d'intention crée des goulots d'étranglement artificiels qui faussent les prix bien avant que la moindre puce ne sorte d'usine. La question qui se pose désormais est celle de la régulation : faut-il encadrer les achats anticipés de composants stratégiques pour éviter que les ambitions d'un seul acteur ne paralysent l'ensemble du marché informatique mondial ? Les prochains mois seront déterminants, notamment si d'autres acteurs comme Microsoft, Google ou Meta suivent la même stratégie d'accaparement.

UELes prix de la RAM ont doublé en France (139 € à 340 € chez LDLC), pénalisant directement étudiants et indépendants, et la question d'une régulation européenne des réservations massives de composants stratégiques par les géants de l'IA devient urgente.

InfrastructureOpinion
1 source
Alphabet : après Google, YouTube et Waymo, la prochaine révolution est l’algorithme TurboQuant
3Presse-citron 

Alphabet : après Google, YouTube et Waymo, la prochaine révolution est l’algorithme TurboQuant

Google a dévoilé TurboQuant, un nouvel algorithme de compression destiné à optimiser l'utilisation de la mémoire dans les systèmes d'intelligence artificielle. Développé en interne au sein d'Alphabet, cet outil n'est pas un produit grand public, mais une brique technique fondamentale visant à réduire la quantité de mémoire vive nécessaire pour faire fonctionner des modèles de grande taille. La présentation a eu lieu il y a quelques jours, sans annonce de disponibilité externe pour l'instant. L'enjeu est considérable : l'un des principaux freins au déploiement massif de l'IA reste le coût des infrastructures, notamment la mémoire GPU, extrêmement onéreuse. Un algorithme capable de compresser efficacement les poids des modèles sans dégrader leurs performances permettrait à Google de réduire significativement ses coûts opérationnels, tout en accélérant ses services — à commencer par son moteur de recherche, qui intègre désormais des résumés et réponses générés par IA à grande échelle. La compression de modèles, ou quantification, est un champ de recherche très actif où s'affrontent les grandes entreprises tech et les laboratoires académiques. Des techniques comme GPTQ, AWQ ou la quantification 4 bits ont déjà permis des gains importants, mais Google semble vouloir pousser plus loin avec une approche maison. TurboQuant s'inscrit dans une stratégie plus large d'Alphabet pour contrôler toute la chaîne technique de l'IA — des puces (TPU) aux algorithmes d'inférence — et maintenir son avance face à Microsoft, Meta et Amazon.

InfrastructureOpinion
1 source
Meta Adaptive Ranking Model : infléchir la courbe d'inférence pour déployer des LLM dans la publicité
4Meta Engineering ML 

Meta Adaptive Ranking Model : infléchir la courbe d'inférence pour déployer des LLM dans la publicité

Meta a dévoilé l'Adaptive Ranking Model (ARM), un nouveau système de recommandation publicitaire fonctionnant à l'échelle des grands modèles de langage (LLM). Déployé sur Instagram au quatrième trimestre 2025, ARM a généré une hausse de 3 % des conversions publicitaires et de 5 % du taux de clics pour les utilisateurs ciblés. Le système atteint une complexité de calcul équivalente à celle des meilleurs LLMs — environ 10 GFLOPs par token — tout en maintenant une latence inférieure à 100 millisecondes, soit un ordre de grandeur plus rapide que l'inférence LLM standard. L'enjeu central qu'ARM résout est ce que Meta appelle le « trilemme de l'inférence » : comment faire tourner des modèles d'une complexité comparable à GPT-4 ou Llama dans un environnement publicitaire temps réel, où chaque requête doit aboutir en moins d'une seconde, pour des milliards d'utilisateurs, sans exploser les coûts d'infrastructure. La solution repose sur un routage intelligent des requêtes : plutôt que d'appliquer le même modèle à chaque impression publicitaire, ARM analyse le contexte et l'intention de l'utilisateur pour décider dynamiquement du niveau de complexité nécessaire. Les requêtes simples consomment peu de ressources ; les requêtes complexes mobilisent toute la puissance du modèle LLM-scale. Ce principe d'alignement dynamique entre complexité et contexte permet de maximiser la qualité des prédictions sans surcharger les serveurs. Trois innovations techniques rendent cela possible. Premièrement, une architecture centrée sur la requête plutôt que sur le modèle, permettant de servir un modèle à un trillion de paramètres (O(1T)) de façon économiquement viable. Deuxièmement, une co-conception modèle-matériel : les architectures sont conçues en tenant compte des contraintes précises du silicium utilisé, ce qui améliore significativement l'utilisation des GPU dans des environnements matériels hétérogènes. Troisièmement, une infrastructure de serving repensée autour d'architectures multi-cartes et d'optimisations bas-niveau spécifiques au hardware. Ce développement s'inscrit dans la course que se livrent les grandes plateformes pour intégrer l'intelligence des LLMs dans leurs systèmes de recommandation — un marché où chaque fraction de point de taux de conversion se traduit en milliards de dollars de revenus publicitaires. Pour Meta, dont plus de 98 % des revenus proviennent de la publicité, ARM représente une avancée structurelle : la preuve qu'il est désormais possible de faire fonctionner des modèles de la taille de ceux utilisés pour les chatbots dans des pipelines industriels ultra-contraints en latence et en coût.

UELes annonceurs européens utilisant Instagram et Facebook bénéficient indirectement d'un ciblage publicitaire amélioré, sans impact réglementaire ou stratégique direct pour la France ou l'UE.

InfrastructureOpinion
1 source