Aller au contenu principal
The Download : puces en verre et logos « sans IA »
InfrastructureMIT Technology Review6sem

The Download : puces en verre et logos « sans IA »

Résumé IASource uniqueImpact UE
Source originale ↗·

Intel, la startup sud-coréenne Absolics et plusieurs géants de la tech misent sur une innovation surprenante pour transformer les puces d'intelligence artificielle : le verre. Absolics commencera cette année à produire des panneaux en verre spéciaux destinés aux data centers de nouvelle génération, avec pour objectif de rendre le matériel informatique plus puissant et surtout plus sobre en énergie.

Cette percée intervient à un moment où la consommation énergétique des infrastructures IA est au cœur des débats. Si la technologie tient ses promesses, elle pourrait réduire significativement les besoins en électricité non seulement des data centers à grande échelle, mais aussi des laptops grand public et des appareils mobiles — un enjeu stratégique alors que la demande en calcul explose à l'échelle mondiale.

Pendant ce temps, d'autres signaux forts agitent le secteur. Meta prépare des licenciements susceptibles de toucher plus de 20 % de ses effectifs, une coupe massive présentée comme le prix à payer pour financer son pari coûteux sur l'IA. En Chine, une startup IA s'apprête à atteindre une valorisation de 18 milliards de $, soit plus du quadruple de ce qu'elle valait il y a seulement trois mois. Sur le front réglementaire, une course s'engage pour créer un logo universel certifiant les contenus « sans IA », tandis qu'une campagne baptisée «QuitGPT» appelle les utilisateurs à abandonner ChatGPT.

Ces dynamiques parallèles — innovation matérielle, restructurations massives, valorisations chinoises en flèche et premières tentatives de labellisation de l'authenticité humaine — dessinent un secteur en pleine recomposition, tiraillé entre la course à la puissance et la nécessité croissante de poser des garde-fous visibles pour le grand public.

Impact France/UE

La course à un logo universel certifiant les contenus 'sans IA' pourrait influencer les standards européens de certification dans le cadre de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V
1Pandaily 

Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V

La startup chinoise de puces IA Yixing Intelligence a annoncé le 22 avril 2026 la clôture d'un tour de série B de 1,5 milliard de yuans, soit environ 210 millions de dollars. Le tour a été co-piloté par plusieurs fonds d'investissement industriels basés à Pékin, avec la participation de multiples investisseurs institutionnels. Fondée en 2022, l'entreprise se spécialise dans les puces IA basées sur l'architecture RISC-V. Sa gamme phare, la série Epoch, cible les grands modèles de langage et les charges de travail en apprentissage profond, avec un support de la précision FP8 et une compatibilité avec des formats de précision inférieure pour améliorer l'efficacité et la flexibilité du déploiement. Yixing propose une solution complète couvrant les puces, les cartes accélératrices PCIe et les clusters de serveurs, accompagnée d'un écosystème logiciel intégrant compilateurs et systèmes d'exécution. Ce financement intervient à un moment où la Chine cherche activement à développer une industrie des semi-conducteurs indépendante face aux restrictions américaines à l'exportation. Pour les acteurs de l'IA qui déploient des infrastructures de calcul intensif, une solution comme celle de Yixing représente une alternative crédible aux GPU d'Nvidia, dont l'accès est de plus en plus limité pour les entreprises chinoises. La technologie d'interconnexion haute vitesse propriétaire de la société, qui permet des déploiements multi-noeuds à grande échelle, répond directement aux besoins des centres de données entraînant des modèles de plusieurs milliards de paramètres. L'essor de Yixing Intelligence s'inscrit dans une dynamique plus large de montée en puissance des champions nationaux de semi-conducteurs en Chine, portée à la fois par les politiques industrielles de Pékin et par l'urgence stratégique créée par les contrôles à l'exportation américains sur les puces avancées. L'architecture RISC-V, ouverte et libre de droits, est au coeur de cette stratégie : elle permet aux entreprises chinoises de concevoir des puces sans dépendre de la propriété intellectuelle d'ARM ou d'x86, majoritairement détenue par des sociétés occidentales. Les fonds levés seront utilisés pour accélérer la mise en production de masse, développer la prochaine génération de produits et élargir l'écosystème partenaire, ce qui laisse anticiper une montée en puissance commerciale significative dans les prochains mois.

InfrastructureActu
1 source
Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison
2Next INpact 

Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison

Google a annoncé sa huitième génération de Tensor Processing Units (TPU), ses puces spécialisées dans les calculs d'intelligence artificielle. Pour la première fois dans l'histoire de la gamme, la firme de Mountain View propose deux variantes distinctes basées non plus sur le niveau de performance, mais sur le type d'usage : le TPU v8t, orienté vers l'entraînement des modèles, et le TPU v8i, dédié à l'inférence. C'est une rupture notable avec les générations précédentes, comme les v5e et v5p, qui se différenciaient uniquement par l'efficacité énergétique contre la puissance brute. Cette spécialisation par usage représente un changement de stratégie significatif pour Google. Selon la firme elle-même, "les deux puces peuvent gérer différentes charges de travail, mais la spécialisation permet d'obtenir des gains significatifs". En séparant l'entraînement de l'inférence au niveau matériel, Google cherche à optimiser le rapport performances/coût pour chaque étape du cycle de vie d'un modèle d'IA. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts d'exploitation réduits et une meilleure efficacité dans le déploiement de modèles génératifs à grande échelle. Cette annonce s'inscrit dans une course aux puces IA qui s'est considérablement intensifiée depuis 2018, date des TPU v3. En huit générations, Google a construit une alternative crédible aux GPU de Nvidia, qui dominent encore largement le marché de l'accélération IA. La firme utilise ses TPU en interne pour entraîner ses propres modèles Gemini, ce qui lui confère un avantage compétitif double : maîtrise du hardware et du software. Face à la montée en puissance de concurrents comme les puces Trainium d'Amazon ou les Gaudi d'Intel, la spécialisation des TPU v8 pourrait devenir un argument commercial décisif pour attirer les grandes entreprises vers Google Cloud plutôt que vers AWS ou Azure.

UELes entreprises européennes qui s'appuient sur Google Cloud pour entraîner ou déployer des modèles d'IA pourraient bénéficier d'une réduction des coûts d'exploitation grâce à la spécialisation matérielle des TPU v8.

InfrastructureOpinion
1 source
3Next INpact 

☕️ Amazon envisage de vendre ses puces Trainium à des tiers

Dans sa lettre annuelle aux actionnaires publiée le 9 avril 2026, Andy Jassy, PDG d'Amazon, a ouvert la porte à une révolution discrète : vendre les puces Trainium d'Amazon à des entreprises tierces. Jusqu'ici exclusivement réservées aux infrastructures internes du groupe, notamment à AWS et à la plateforme d'IA Bedrock, ces semiconducteurs représentent selon Jassy une activité dépassant 20 milliards de dollars en 2025, avec une croissance annuelle à trois chiffres. Il va plus loin en estimant que si cette division vendait ses puces à l'extérieur comme le font d'autres acteurs du marché, son chiffre d'affaires annuel approcherait les 50 milliards de dollars. Les puces Trainium 3, annoncées fin 2025, sont déjà quasi intégralement allouées en interne, et une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n'est attendue que dans 18 mois. L'enjeu est considérable pour l'ensemble de l'industrie des semi-conducteurs dédiés à l'intelligence artificielle. Si Amazon franchit le pas, le groupe deviendrait un concurrent direct de NVIDIA sur le segment des puces d'entraînement pour l'IA, un marché aujourd'hui dominé très largement par le fabricant de Santa Clara. Pour les entreprises clientes, cela signifierait l'apparition d'une alternative sérieuse, à la fois en termes de performance et de rapport prix/performance. Jassy cite l'exemple de ses processeurs Graviton, lancés en 2018, qui offrent jusqu'à 40 % de meilleur rapport prix/performance que les processeurs x86 et sont aujourd'hui utilisés par 98 % des 1 000 principaux clients EC2 d'Amazon. La trajectoire suggérée pour Trainium est explicitement similaire. Ce mouvement s'inscrit dans une tendance plus large où les grands acteurs du cloud développent leurs propres puces pour réduire leur dépendance à NVIDIA et améliorer leurs économies d'échelle. Google a déjà emprunté ce chemin en proposant ses TPU à des tiers du cloud comme Crusoe, CoreWeave ou Fluidstack, transformant la vente de composants en alternative au modèle classique de location de ressources. Amazon, fort de l'expérience acquise avec Graviton, dispose des capacités industrielles et de la base clients pour répliquer cette stratégie à grande échelle. Jassy prend soin de ménager NVIDIA, affirmant qu'AWS restera une plateforme de choix pour les solutions du fabricant, tout en signalant clairement que les clients cherchent mieux ailleurs et qu'Amazon est prêt à répondre à cette demande. La question n'est plus de savoir si Amazon entrera sur le marché des puces tierces, mais quand.

UEUne alternative sérieuse à NVIDIA pour les puces d'entraînement IA pourrait réduire les coûts d'infrastructure pour les entreprises et laboratoires européens, aujourd'hui dépendants d'un marché dominé par un seul fournisseur.

💬 20 milliards déjà en interne, et Jassy commence à regarder par-dessus la clôture, ça dit quelque chose. Graviton a mis 6 ans pour convaincre 98 % des gros clients EC2, donc Trainium en vente libre c'est pas pour demain matin, mais la direction est posée. Ce qui m'intéresse vraiment c'est si le rapport prix/perf tient hors de l'écosystème AWS, parce que sur du hardware vendu à nu, les comparatifs NVIDIA vont être brutaux.

InfrastructureOpinion
1 source
La Corée du Sud investit dans la startup locale qui défie Nvidia avec ses puces IA
4Le Big Data 

La Corée du Sud investit dans la startup locale qui défie Nvidia avec ses puces IA

Le gouvernement sud-coréen a annoncé mardi un investissement de 166 millions de dollars (250 milliards de wons) dans Rebellions, une startup spécialisée dans les puces d'intelligence artificielle fondée en 2020. Cet investissement, validé par la Commission des services financiers et le conseil consultatif des technologies stratégiques, est le premier déblocage concret du « Fonds national de croissance » dans le cadre du programme « K-Nvidia », co-piloté avec le ministère des Sciences et des TIC. Rebellions conçoit des unités de traitement neuronal (NPU) dédiées à l'inférence IA — la phase où les modèles répondent aux requêtes en temps réel. Son architecture, notamment la puce ATOM, se distingue par une consommation énergétique nettement inférieure aux solutions concurrentes. Fonctionnant sur un modèle « fabless », la société sous-traite la fabrication à des fonderies spécialisées. Depuis six mois, elle a levé 650 millions de dollars, portant son total à 850 millions et sa valorisation à plus de 2 milliards de dollars. Cet investissement public s'inscrit dans une stratégie de réduction de la dépendance aux infrastructures américaines, et plus précisément à Nvidia, qui domine aujourd'hui le marché des puces IA avec une emprise quasi monopolistique sur les data centers mondiaux. Cette concentration donne à un seul acteur un pouvoir considérable sur les prix, les délais de livraison et l'accès aux technologies critiques — une vulnérabilité que les États commencent à prendre très au sérieux. Rebellions cible déjà des clients cloud, des opérateurs télécoms et des gouvernements, et s'implante aux États-Unis, au Japon, au Moyen-Orient et à Taïwan, signalant des ambitions clairement internationales. Pour la Corée du Sud, soutenir ce type d'acteur, c'est aussi consolider une filière industrielle cohérente : le pays maîtrise déjà la mémoire vive avec Samsung et SK Hynix, mais reste exposé sur le segment des puces de calcul IA. La décision de Séoul intervient dans un contexte de course mondiale aux semi-conducteurs qui s'emballe. Les géants technologiques américains devraient investir collectivement entre 630 et 700 milliards de dollars en infrastructure IA cette année selon Reuters, tandis que la Chine, malgré les restrictions américaines à l'export, accélère le développement de ses propres filières. Les tensions géopolitiques entre Washington et Pékin ont transformé les semi-conducteurs en outil de pression diplomatique, rendant les chaînes d'approvisionnement imprévisibles. Dans ce contexte, le programme K-Nvidia représente le pari de Séoul de ne pas rater la fenêtre d'opportunité : construire un champion national de la puce IA avant que le marché soit structurellement verrouillé par les acteurs déjà en place.

UELa dépendance européenne aux puces Nvidia étant structurellement similaire à celle de la Corée du Sud, l'émergence de concurrents asiatiques comme Rebellions pourrait à terme diversifier les options d'approvisionnement pour les acteurs européens du cloud et de l'IA.

InfrastructureOpinion
1 source