Aller au contenu principal
8 ans, 100 dollars, et plus rapide qu’une RTX 3060 pour faire tourner un LLM en local
InfrastructureFrandroid36min

8 ans, 100 dollars, et plus rapide qu’une RTX 3060 pour faire tourner un LLM en local

Résumé IASource uniqueImpact UE
Source originale ↗·

Un YouTubeur spécialisé en hardware a démontré récemment qu'une carte Nvidia destinée aux serveurs, datant de 2017 et achetée une centaine de dollars sur eBay, surpasse une RTX 3060 moderne pour faire tourner des modèles de langage en local. La carte en question, une Tesla P40 dotée de 24 Go de mémoire GDDR5, génère davantage de tokens par seconde que la carte grand public de Nvidia sur des modèles comme Llama ou Mistral 7B, tout en offrant deux fois plus de VRAM pour charger des modèles plus volumineux.

Ce résultat contre-intuitif souligne un avantage décisif du matériel entreprise d'occasion : la quantité de mémoire embarquée. Pour les LLM en local, la VRAM est le facteur limitant, bien plus que la puissance de calcul brute. Avec 24 Go, la P40 peut charger des modèles de 13 à 20 milliards de paramètres sans quantification agressive, là où la RTX 3060 et ses 12 Go se retrouvent rapidement à court. Pour un particulier ou un développeur indépendant cherchant à expérimenter avec l'IA générative sans investir plusieurs centaines d'euros, l'équation devient très favorable.

Le marché de l'occasion en matériel datacenter constitue un angle mort peu exploré par la communauté IA grand public. Les cartes Tesla, Quadro et A-series de générations précédentes, déclassées par les entreprises au profit de H100 et autres puces récentes, s'accumulent sur les plateformes de revente à des prix dérisoires. Avec l'explosion de l'intérêt pour les LLM locaux depuis la sortie de Llama en 2023, ce segment pourrait attirer davantage d'attention, au point de faire remonter les prix sur ces références spécifiques.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mistral AI lève 830 millions de dollars pour un centre de données IA
1AI Business 

Mistral AI lève 830 millions de dollars pour un centre de données IA

Mistral AI a annoncé avoir levé 830 millions de dollars pour financer la construction d'un centre de données dédié à l'intelligence artificielle, qui sera implanté en région parisienne. Cette infrastructure, alimentée par des milliers de puces Nvidia, représente l'un des investissements les plus importants jamais réalisés dans l'IA en Europe. La startup française, fondée en 2023, consolide ainsi sa position parmi les acteurs majeurs du secteur à l'échelle mondiale. Ce centre de calcul donnera à Mistral une capacité d'entraînement et d'inférence souveraine, réduisant sa dépendance aux infrastructures cloud américaines comme AWS ou Azure. Pour les entreprises et institutions européennes soucieuses de la localisation de leurs données, cette infrastructure sur sol français représente une alternative crédible aux géants américains. C'est aussi un signal fort sur la capacité de l'Europe à construire une filière IA complète, du modèle jusqu'au silicium. Mistral s'inscrit dans une course mondiale à la puissance de calcul où les États-Unis et la Chine investissent des dizaines de milliards. La France, qui a fait de l'IA souveraine une priorité industrielle, bénéficie ici d'un effet d'entraînement : après les annonces gouvernementales du plan France 2030, un acteur privé passe à l'acte à grande échelle. Les prochains mois diront si d'autres startups européennes suivront cette voie ou si Mistral restera une exception dans un paysage dominé par les hyperscalers américains.

UEMistral AI construit un centre de calcul souverain en région parisienne, offrant aux entreprises et institutions françaises et européennes une alternative locale aux hyperscalers américains pour l'hébergement et l'inférence IA sensibles.

💬 830 millions pour un datacenter, c'est le moment où Mistral arrête de jouer dans la cour des grands et devient un grand. Ce qui m'intéresse vraiment là-dedans, c'est la souveraineté d'inférence : des boîtes françaises qui pourront faire tourner des modèles sans que leurs données passent par Virginia ou Oregon. Reste à voir combien ça coûtera à l'usage.

InfrastructureOpinion
1 source
OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
2The Information AI 

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle. En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an. Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

💬 20 milliards sur Cerebras, c'est pas une commande de puces, c'est un message envoyé à Jensen Huang. OpenAI commence enfin à construire un levier de négociation réel, parce qu'être client captif de Nvidia à cette échelle, c'est juste intenable sur la durée. Reste à voir si les WSE tiennent la charge en prod sur des workloads variés, parce que Cerebras performe bien dans certains cas mais c'est pas encore la puce universelle qu'on nous vend.

InfrastructureActu
1 source
Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France
3Maddyness 

Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France

Mistral AI a finalisé un financement par dette de 830 millions de dollars destiné à l'exploitation de son premier centre de données souverain en France. Cette opération, distincte d'une levée de fonds en capital classique, permet à la startup parisienne fondée en 2023 de conserver sa structure actionnariale tout en mobilisant des ressources massives pour une infrastructure physique propre. Ce passage à l'hébergement en propre marque un tournant stratégique majeur : Mistral ne dépend plus uniquement des hyperscalers américains comme AWS ou Azure pour faire tourner ses modèles. Disposer d'un datacenter français signifie une maîtrise totale de la chaîne de traitement des données, un argument de poids auprès des clients institutionnels et des gouvernements européens soucieux de souveraineté numérique. Ce mouvement s'inscrit dans une course mondiale à la puissance de calcul où les acteurs de l'IA réalisent que le contrôle de l'infrastructure est aussi stratégique que les modèles eux-mêmes. Mistral, qui compte parmi ses clients la Commission européenne et plusieurs États membres, consolide ainsi sa position de champion européen face aux géants américains. L'opération pourrait également préfigurer une introduction en bourse ou un partenariat industriel à grande échelle dans les mois à venir.

UEMistral AI construit un datacenter souverain en France, réduisant la dépendance aux hyperscalers américains et offrant aux institutions publiques et gouvernements européens une alternative crédible pour le traitement souverain des données.

💬 C'est le move qu'on attendait depuis que Mistral a commencé à vendre aux gouvernements. Un datacenter souverain en France, c'est pas un bonus symbolique, c'est la condition pour décrocher les gros contrats institutionnels sans que personne te demande où tournent les données. Et 830 millions en dette plutôt qu'en capital, ça dit beaucoup sur leur ambition : ils préservent l'actionnariat pour ce qui vient après.

InfrastructureOpinion
1 source
Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU
4Pandaily 

Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU

Moore Threads (cotée à Shanghai sous le symbole 688795.SH) a publié le 26 avril 2026 ses résultats annuels 2025 et ses chiffres du premier trimestre 2026, confirmant une trajectoire de croissance exceptionnelle. Le fabricant chinois de GPU a enregistré un chiffre d'affaires de 1,505 milliard de yuans (environ 208 millions de dollars) en 2025, soit une hausse de 243 % sur un an, avec un taux de croissance annuel composé dépassant 200 % entre 2022 et 2024. La marge brute atteint 65,57 %, l'une des plus élevées du secteur, pour un bénéfice brut de 987 millions de yuans. Les pertes nettes continuent de se réduire : hors rémunérations en actions, la perte nette s'établit à 648 millions de yuans, en recul de 56,65 % sur un an. La dynamique s'est encore accélérée au premier trimestre 2026, avec un chiffre d'affaires de 738 millions de yuans (+155 % sur un an) et un bénéfice net attributable aux actionnaires redevenu positif à 29 millions de yuans. En mars 2026, la société a décroché une commande de 660 millions de yuans pour son cluster de calcul intelligent KUAE, illustrant sa capacité à déployer des infrastructures à grande échelle. Ces résultats positionnent Moore Threads comme l'un des acteurs les plus crédibles de l'alternative chinoise à Nvidia. La rentabilité naissante du premier trimestre 2026 est un signal fort : l'entreprise n'est plus seulement en phase d'investissement, elle commence à monétiser concrètement ses GPU auprès d'opérateurs cloud, d'acteurs de l'IA incarnée, de l'éducation intelligente et du secteur manufacturier. Son GPU phare, le MTT S5000, délivre jusqu'à 1 000 TFLOPS de calcul IA dense par carte, rivalisant selon la société avec les produits leaders mondiaux. Le cluster KUAE, construit autour de ce GPU, supporte l'entraînement de modèles à mille milliards de paramètres et a déjà été déployé commercialement avec des métriques atteignant les standards internationaux, ce qui représente une validation technique significative pour un fabricant émergent. Moore Threads a été fondée en 2020, dans un contexte de tensions croissantes entre les États-Unis et la Chine autour des semi-conducteurs avancés. Les restrictions américaines sur les exportations de GPU Nvidia vers la Chine ont créé un vide que des acteurs comme Moore Threads, Biren ou Cambricon cherchent à combler. La société a investi 1,305 milliard de yuans en R&D en 2025, soit 86,68 % de son chiffre d'affaires, et détient 806 droits de propriété intellectuelle dont 590 brevets d'invention. Elle développe actuellement une nouvelle génération de clusters ultra-larges basée sur son architecture "Huagang", visant des systèmes à 100 000 GPU. Parallèlement, son écosystème logiciel MUSA est conçu pour être compatible avec CUDA, ce qui facilite l'adoption par les développeurs déjà familiers des outils Nvidia. La question centrale pour les prochains trimestres sera de savoir si cette indépendance technologique revendiquée résistera à l'épreuve des déploiements à très grande échelle.

UELa montée en puissance de Moore Threads comme alternative chinoise crédible à Nvidia, dans le contexte des restrictions américaines sur les exportations de GPU, pourrait à terme diversifier les options d'approvisionnement en puces IA pour les entreprises et datacenters européens.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour