Aller au contenu principal

Dossier NVIDIA — page 6

296 articles · page 6 sur 6

NVIDIA, l'arsenal de la course IA : Blackwell, Vera Rubin, Vera CPU, partenariats hyperscalers, Omniverse, et la rente CUDA face aux puces Huawei et Trainium.

Amazon SageMaker AI propose désormais des recommandations optimisées pour l'inférence d'IA générative
251AWS ML Blog InfrastructureActu

Amazon SageMaker AI propose désormais des recommandations optimisées pour l'inférence d'IA générative

Amazon a annoncé que SageMaker AI prend désormais en charge les recommandations optimisées pour le déploiement de modèles d'IA générative en production. Cette nouvelle fonctionnalité s'appuie sur NVIDIA AIPerf, un composant modulaire du framework open source NVIDIA Dynamo, pour fournir automatiquement des configurations de déploiement validées accompagnées de métriques de performance précises. Concrètement, SageMaker AI évalue les combinaisons d'instances GPU, de conteneurs de service, de stratégies de parallélisme et de techniques d'optimisation, puis restitue aux équipes les configurations les plus adaptées à leurs exigences de latence, de débit ou de coût. Eliuth Triana, Developer Relations Manager chez NVIDIA, a salué l'intégration, soulignant qu'elle permet aux entreprises de déployer des modèles d'IA générative avec confiance, en remplaçant des semaines de tests manuels par des configurations prêtes à l'emploi. L'enjeu est considérable pour les équipes d'ingénierie. Aujourd'hui, passer d'un modèle entraîné à un endpoint de production opérationnel prend entre deux et trois semaines par modèle, une durée imposée par la nécessité de tester manuellement des dizaines de configurations possibles : plus d'une douzaine de types d'instances GPU, plusieurs conteneurs de service, différents degrés de parallélisme, et des techniques comme le décodage spéculatif. Sans guidance validée, les équipes provisionnent des instances, déploient le modèle, exécutent des tests de charge, analysent les résultats, puis recommencent. Ce cycle mobilise une expertise en infrastructure GPU et en frameworks de service que la plupart des équipes ne possèdent pas en interne, conduisant systématiquement à du sur-provisionnement coûteux. AWS élimine ce goulot d'étranglement en automatisant l'ensemble du processus d'exploration et de validation des configurations. Cette évolution s'inscrit dans une course à la mise en production de l'IA générative que se livrent les entreprises pour alimenter leurs assistants intelligents, outils de génération de code et moteurs de contenu. Le coût du sur-provisionnement GPU, qui s'accumule à chaque modèle déployé et à chaque mois d'exploitation, représente un problème structurel pour l'industrie. AWS s'appuie sur sa collaboration technique approfondie avec NVIDIA, formalisée ici par l'intégration directe des composants de Dynamo dans SageMaker, pour s'imposer comme la plateforme cloud de référence pour les déploiements d'IA en production. En standardisant le benchmarking via AIPerf, dont les contrôles de concurrence et les options de jeux de données permettent d'itérer rapidement sur des scénarios variés, Amazon réduit la barrière technique pour les organisations qui cherchent à industrialiser leurs modèles sans constituer une équipe d'experts en infrastructure dédiée.

UELes entreprises européennes utilisant AWS SageMaker peuvent réduire leurs délais de mise en production de modèles IA de plusieurs semaines, sans impact réglementaire ou institutionnel direct sur la France ou l'UE.

1 source
Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V
252Pandaily 

Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V

La startup chinoise de puces IA Yixing Intelligence a annoncé le 22 avril 2026 la clôture d'un tour de série B de 1,5 milliard de yuans, soit environ 210 millions de dollars. Le tour a été co-piloté par plusieurs fonds d'investissement industriels basés à Pékin, avec la participation de multiples investisseurs institutionnels. Fondée en 2022, l'entreprise se spécialise dans les puces IA basées sur l'architecture RISC-V. Sa gamme phare, la série Epoch, cible les grands modèles de langage et les charges de travail en apprentissage profond, avec un support de la précision FP8 et une compatibilité avec des formats de précision inférieure pour améliorer l'efficacité et la flexibilité du déploiement. Yixing propose une solution complète couvrant les puces, les cartes accélératrices PCIe et les clusters de serveurs, accompagnée d'un écosystème logiciel intégrant compilateurs et systèmes d'exécution. Ce financement intervient à un moment où la Chine cherche activement à développer une industrie des semi-conducteurs indépendante face aux restrictions américaines à l'exportation. Pour les acteurs de l'IA qui déploient des infrastructures de calcul intensif, une solution comme celle de Yixing représente une alternative crédible aux GPU d'Nvidia, dont l'accès est de plus en plus limité pour les entreprises chinoises. La technologie d'interconnexion haute vitesse propriétaire de la société, qui permet des déploiements multi-noeuds à grande échelle, répond directement aux besoins des centres de données entraînant des modèles de plusieurs milliards de paramètres. L'essor de Yixing Intelligence s'inscrit dans une dynamique plus large de montée en puissance des champions nationaux de semi-conducteurs en Chine, portée à la fois par les politiques industrielles de Pékin et par l'urgence stratégique créée par les contrôles à l'exportation américains sur les puces avancées. L'architecture RISC-V, ouverte et libre de droits, est au coeur de cette stratégie : elle permet aux entreprises chinoises de concevoir des puces sans dépendre de la propriété intellectuelle d'ARM ou d'x86, majoritairement détenue par des sociétés occidentales. Les fonds levés seront utilisés pour accélérer la mise en production de masse, développer la prochaine génération de produits et élargir l'écosystème partenaire, ce qui laisse anticiper une montée en puissance commerciale significative dans les prochains mois.

InfrastructureActu
1 source
ARM : modélisation des récompenses par avantage pour la manipulation à long horizon
253arXiv cs.RO 

ARM : modélisation des récompenses par avantage pour la manipulation à long horizon

Une équipe de chercheurs propose ARM (Advantage Reward Modeling, arXiv:2604.03037), un framework pour améliorer l'apprentissage par renforcement (RL) sur des tâches de manipulation robotique à long horizon. Le problème de fond : les récompenses éparses fournissent trop peu de signal pour guider l'apprentissage quand une tâche implique des dizaines d'étapes. ARM substitue la mesure de progression absolue par une estimation de l'avantage relatif, via un protocole de labeling à trois états : Progressif, Régressif, Stagnant. Ce schéma tri-état réduit la charge cognitive des annotateurs humains tout en assurant une forte cohérence inter-annotateurs. Intégré dans un pipeline de RL offline, il pondère les données de façon adaptative pour filtrer les échantillons sous-optimaux. Résultat annoncé : 99,4 % de réussite sur une tâche de pliage de serviette à long horizon, avec quasi-absence d'intervention humaine pendant l'entraînement. L'atout principal d'ARM est son coût d'annotation réduit face aux méthodes classiques de reward shaping dense, qui exigent une ingénierie fine de la fonction de récompense et peinent à modéliser des comportements non monotones comme le backtracking ou la récupération d'erreur. ARM ramène l'annotation à une classification intuitive, applicable aux démonstrations complètes comme aux données fragmentées issues de DAgger (imitation learning itératif). Les auteurs rapportent un gain sur les baselines VLA (Vision-Language-Action) actuels en stabilité et en efficacité des données, mais le benchmark se limite à un seul scénario de pliage de serviette : un résultat prometteur qui reste à confirmer sur un panel de tâches plus large et diversifié. La manipulation à long horizon demeure l'un des problèmes les plus ouverts de la robotique, au coeur de la compétition entre Pi-0 (Physical Intelligence), GR00T N2 (NVIDIA) et d'autres architectures VLA. ARM s'inscrit dans le courant qui vise à rendre le RL applicable en conditions réelles sans dépendre massivement de la simulation (sim-to-real) ni de fonctions de récompense codifiées manuellement. Il s'agit d'un résultat de laboratoire : aucun déploiement terrain ni partenaire industriel n'est mentionné dans la publication. Les suites attendues sont une validation sur des tâches plus variées et des plateformes robotiques commerciales, notamment les humanoïdes actuellement en phase de commercialisation.

AutreOpinion
1 source
La réalité virtuelle pour faciliter la collecte de données dans les tâches d'IA incarnée
254arXiv cs.RO 

La réalité virtuelle pour faciliter la collecte de données dans les tâches d'IA incarnée

Des chercheurs ont publié sur arXiv (arXiv:2604.16903) un framework de collecte de données pour robots embodied basé sur Unity, qui exploite la réalité virtuelle et les mécaniques de jeu vidéo pour contourner le goulet d'étranglement majeur du domaine : obtenir des démonstrations humaines en quantité suffisante. Le système combine génération procédurale de scènes, téléopération d'un robot humanoïde en VR, évaluation automatique des tâches et journalisation de trajectoires. Un prototype concret a été développé et validé : une tâche de pick-and-place de déchets, dans laquelle l'opérateur incarne le robot via un casque VR pour saisir et trier des objets dans des environnements générés aléatoirement. Les résultats expérimentaux montrent que les démonstrations collectées couvrent largement l'espace état-action, et que l'augmentation de la difficulté de la tâche entraîne une intensité de mouvement plus élevée ainsi qu'une exploration plus étendue de l'espace de travail du bras. Ce travail s'attaque à un problème structurel de l'intelligence embodied : les interfaces de téléopération classiques (manettes, bras maître-esclave, exosquelettes) sont coûteuses, peu accessibles et difficiles à déployer à grande échelle. En gamifiant la collecte, le framework ouvre la possibilité de recruter des opérateurs non spécialisés via des interfaces VR grand public, réduisant potentiellement le coût marginal par démonstration. La couverture large de l'espace état-action est un signal positif pour l'entraînement de politiques robustes, notamment les VLA (Vision-Language-Action models) qui dépendent de la diversité des trajectoires. Il faut toutefois nuancer : le prototype reste une tâche simple (ramassage d'objet), et les auteurs ne fournissent pas de métriques de transfert vers un robot physique réel, la question du sim-to-real gap reste entière. Ce type d'approche s'inscrit dans une tendance plus large de recours aux environnements synthétiques pour l'entraînement robotique, portée notamment par Physical Intelligence (pi0), Google DeepMind (RoboVQA, RT-2) et NVIDIA (GROOT). La génération procédurale de scènes est également au coeur des pipelines de simulation massive comme IsaacLab. L'originalité ici est l'angle "jeu vidéo" assumé, qui rapproche la collecte de données des méthodes de crowdsourcing humain utilisées en NLP. Les prochaines étapes naturelles seraient un benchmark sur robot physique, une extension à des tâches bimanuelle, et une évaluation de la qualité des politiques entraînées sur ces données face à des baselines téléopérées classiques.

AutreActu
1 source
Amazon SageMaker AI accélère l'inférence d'IA générative avec les instances G7e
255AWS ML Blog 

Amazon SageMaker AI accélère l'inférence d'IA générative avec les instances G7e

Amazon Web Services a annoncé la disponibilité des instances G7e sur Amazon SageMaker AI, une nouvelle génération de serveurs d'inférence propulsés par les GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Ces instances sont disponibles en configurations de 1, 2, 4 et 8 GPU, chaque carte offrant 96 Go de mémoire GDDR7. Concrètement, une instance G7e.2xlarge à GPU unique peut désormais héberger des modèles open source de 35 milliards de paramètres comme Qwen3.5-35B ou GPT-OSS-120B, tandis qu'une configuration à 8 GPU (G7e.48xlarge) atteint 768 Go de mémoire GPU totale et peut faire tourner des modèles de 300 milliards de paramètres sur un nœud unique. La bande passante réseau grimpe à 1 600 Gbps via EFA, soit quatre fois plus que la génération G6e et seize fois plus que les G5. Ces chiffres ont une implication directe pour les équipes d'ingénierie : des modèles qui nécessitaient auparavant plusieurs machines interconnectées peuvent désormais s'exécuter sur un seul nœud, supprimant la latence inter-nœuds et la complexité opérationnelle associée. Les performances d'inférence sont jusqu'à 2,3 fois supérieures à celles des G6e. Pour les applications temps réel comme les chatbots, les pipelines RAG ou les workflows agentiques, cette densité mémoire combinée à une bande passante CPU-GPU quatre fois plus élevée se traduit par des temps de réponse plus courts sous charge élevée. Les modèles multimodaux et de génération d'images, souvent limités par des erreurs de mémoire insuffisante sur les générations précédentes, bénéficient également directement de ce doublement de la capacité par GPU. Cette annonce s'inscrit dans une course aux accélérateurs cloud que se livrent AWS, Google et Microsoft, chacun cherchant à proposer les GPU les plus récents de NVIDIA au plus vite après leur lancement. Les puces Blackwell de NVIDIA, dont la RTX PRO 6000 Server Edition fait partie, représentent la cinquième génération de Tensor Cores avec support natif de la précision FP4, permettant de réduire encore la consommation mémoire pour les grands modèles. Le support de NVIDIA GPUDirect RDMA via EFAv4 ouvre également la voie à des scénarios d'inférence multi-nœuds à faible latence, jusqu'ici peu pratiques sur les instances G-series. À mesure que les modèles de langage et les systèmes agentiques continuent de grossir en taille et en complexité, la capacité à les déployer efficacement sur infrastructure managée comme SageMaker devient un avantage concurrentiel décisif pour les entreprises qui cherchent à maîtriser leurs coûts d'exploitation tout en montant en puissance.

UELes équipes techniques européennes utilisant Amazon SageMaker dans les régions AWS EU peuvent désormais déployer des modèles jusqu'à 300 milliards de paramètres sur un seul nœud, réduisant la complexité opérationnelle et les coûts d'inférence pour les applications temps réel.

InfrastructureActu
1 source
ShapeGen : génération de données robotiques pour la manipulation par catégorie d'objets
256arXiv cs.RO 

ShapeGen : génération de données robotiques pour la manipulation par catégorie d'objets

ShapeGen, présenté dans un preprint arXiv (2604.15569) publié en avril 2026, propose une méthode de génération automatique de données d'entraînement pour les politiques de manipulation robotique. L'enjeu central est la généralisation intra-catégorie : un robot doit savoir saisir n'importe quelle tasse, bouteille ou outil, pas uniquement les objets vus pendant l'entraînement. La méthode opère en deux étapes. La première construit une bibliothèque de formes 3D (Shape Library) en apprenant des déformations spatiales (warpings) qui font correspondre des points fonctionnellement équivalents entre objets d'une même catégorie. La seconde étape, Function-Aware Generation, exploite cette bibliothèque pour produire automatiquement des démonstrations physiquement plausibles sur de nouveaux objets géométriquement variés, avec une annotation humaine minimale. Le pipeline est dit "simulator-free" : il génère des données directement en 3D, sans recourir à un moteur de simulation classique comme MuJoCo ou Isaac Sim. Des expériences en environnement réel valident l'amélioration de la généralisation des politiques ainsi entraînées. Le problème adressé est structurel dans le déploiement industriel des bras manipulateurs : collecter manuellement des corpus de démonstrations sur des centaines de variantes d'objets est coûteux en main-d'oeuvre et logistiquement difficile. ShapeGen automatise cette diversification morphologique, ce qui pourrait réduire significativement le coût de préparation des données pour des politiques visuomotrices (VLA, diffusion policies). Si les résultats réels se confirment à plus grande échelle, cela allège directement le goulot d'étranglement data dans le cycle de développement robotique, en particulier pour les intégrateurs qui doivent adapter des cellules à des référentiels produits variables. La claim "simulator-free" mérite cependant d'être nuancée : le pipeline repose sur des modèles 3D et des transformations géométriques qui constituent en eux-mêmes une forme de simulation implicite. Les benchmarks présentés restent limités en termes de diversité de tâches et d'objets testés. La généralisation intra-catégorie est un axe de recherche actif depuis plusieurs années, exploré notamment via des approches comme PointNet, Category-Level 6D Pose Estimation (Wang et al., 2019) ou les politiques basées sur des représentations implicites (NeRF, SDF). ShapeGen se positionne dans la lignée des travaux sur la génération de données synthétiques pour la manipulation, concurrençant des approches comme RoboGen ou MimicGen (NVIDIA), qui utilisent également la génération automatique pour diversifier les démos. Le projet est affilié à des auteurs du milieu académique (page projet hébergée sur GitHub personnel), sans affiliation industrielle explicite déclarée dans le preprint. Les prochaines étapes naturelles seraient une évaluation sur des benchmarks standardisés (RLBench, FurnitureBench) et une intégration dans des pipelines VLA existants pour mesurer le gain réel sur des tâches longue-distance.

AutreActu
1 source
Inférence LLM accélérée par décodage spéculatif sur AWS Trainium et vLLM
257AWS ML Blog 

Inférence LLM accélérée par décodage spéculatif sur AWS Trainium et vLLM

AWS et ses partenaires ont publié des résultats de benchmarks démontrant que le décodage spéculatif (speculative decoding) sur les puces AWS Trainium2, couplé au framework vLLM et à Kubernetes, permet d'accélérer la génération de tokens jusqu'à trois fois pour les charges de travail intensives en décodage. Les tests ont été réalisés avec les modèles Qwen3, une famille de modèles de langage développée par Alibaba. La technique repose sur l'utilisation de deux modèles en tandem : un petit modèle "brouillon" (draft model) qui propose plusieurs tokens en avance, et le modèle principal qui vérifie ces propositions en une seule passe. Résultat : une latence inter-token réduite et un coût par token généré significativement plus faible. L'impact est particulièrement marqué pour les applications comme les assistants à l'écriture, les agents de code ou tout système génératif qui produit beaucoup plus de tokens qu'il n'en consomme en entrée. Dans ces cas, la phase de décodage représente l'essentiel du coût d'inférence. Le problème fondamental du décodage autorégressif classique est que les accélérateurs matériels restent largement sous-utilisés : chaque étape ne produit qu'un seul token, ce qui génère de petites opérations matricielles inefficaces et monopolise inutilement la bande passante mémoire du cache KV. Le décodage spéculatif transforme ce goulot d'étranglement en permettant au modèle cible de traiter n tokens simultanément lors de la vérification, amortissant ainsi les accès mémoire et densifiant les calculs. Deux paramètres clés pilotent les performances de cette approche : le choix du modèle brouillon et la valeur de numspeculativetokens, qui détermine combien de tokens sont proposés à chaque passe. Le modèle brouillon doit partager le même tokenizer et le même vocabulaire que le modèle principal, idéalement appartenir à la même famille architecturale, pour maximiser le taux d'acceptation des tokens proposés. Un taux d'acceptation élevé est crucial : si le modèle principal rejette trop souvent les suggestions, les gains de performance s'évaporent et le coût de calcul du modèle brouillon devient une charge nette. Fixer numspeculativetokens trop bas limite les gains ; trop haut, cela multiplie les rejections anticipées. Cette publication s'inscrit dans une tendance plus large de la course à l'optimisation de l'inférence LLM, où AWS cherche à positionner ses puces Trainium comme alternative crédible aux GPU Nvidia, notamment pour les entreprises cherchant à réduire leurs coûts d'inférence à grande échelle.

UELes entreprises européennes utilisant AWS pourraient réduire leurs coûts d'inférence LLM en migrant vers Trainium2, sans impact réglementaire ou institutionnel direct pour la France ou l'UE.

InfrastructureActu
1 source
Repenser le coût total de l'IA : pourquoi le coût par token est la seule métrique qui compte
258NVIDIA AI Blog 

Repenser le coût total de l'IA : pourquoi le coût par token est la seule métrique qui compte

Les centres de données d'entreprise sont en train de vivre une mutation profonde : autrefois dédiés au stockage et au traitement de données, ils deviennent des usines à tokens, dont la production principale est l'intelligence artificielle générée à la demande. Cette transformation oblige les entreprises à repenser entièrement leur manière d'évaluer le coût total de possession (TCO) de leur infrastructure IA. Or, selon NVIDIA, la majorité des décideurs continuent de se focaliser sur des métriques obsolètes : le coût par GPU par heure ou les FLOPS par dollar, c'est-à-dire la puissance brute de calcul obtenue pour chaque dollar investi. Ces indicateurs mesurent des intrants, alors que les entreprises, elles, font tourner leur activité sur des extrants. La seule métrique qui compte réellement est le coût par million de tokens produits, soit le coût tout compris pour générer chaque unité d'intelligence délivrée à l'utilisateur final. Optimiser ce coût par token change fondamentalement l'équation économique de l'IA. Le numérateur de cette équation, le coût horaire du GPU, est visible et facile à comparer entre fournisseurs cloud ou solutions on-premise. Mais c'est le dénominateur, soit le volume de tokens effectivement délivrés par seconde, qui détermine la rentabilité réelle. Augmenter ce débit produit deux effets simultanés : il réduit le coût unitaire de chaque interaction servie, améliorant ainsi les marges, et il augmente le nombre de tokens par mégawatt consommé, ce qui permet de générer davantage de revenus à partir du même investissement infrastructurel. NVIDIA affirme proposer le coût par token le plus bas du secteur, notamment sur les modèles de raisonnement de type mixture-of-experts (MoE), qui représentent aujourd'hui la catégorie de modèles la plus largement déployée en production. Cette réévaluation des critères de choix s'inscrit dans un contexte de montée en puissance de l'IA agentique, où les systèmes autonomes enchaînent des séquences longues d'inférences, rendant le débit et la latence encore plus critiques. Des technologies comme le décodage spéculatif, la prédiction multi-token, le routage KV-aware ou encore le déchargement du cache KV permettent d'augmenter substantiellement le débit réel sans changer le matériel. La prise en charge de la précision FP4, la capacité de l'interconnexion à gérer le trafic all-to-all des modèles MoE, ou encore les optimisations de la couche de serving deviennent des critères de sélection déterminants. Pour les déploiements on-premise notamment, où l'engagement en capital sur le foncier, l'énergie et l'infrastructure est massif, maximiser l'intelligence produite par mégawatt n'est plus une option technique mais un impératif économique.

InfrastructureActu
1 source
OpenAI affirme à ses investisseurs que son infrastructure lui donne un avantage sur Anthropic
259The Decoder 

OpenAI affirme à ses investisseurs que son infrastructure lui donne un avantage sur Anthropic

OpenAI a présenté à ses investisseurs un argument central : l'avance prise dans la construction de ses infrastructures de calcul lui confère un avantage décisif sur Anthropic. Selon le discours tenu aux financeurs, les années d'investissement massif dans les datacenters et les systèmes d'entraînement auraient créé une position difficile à rattraper pour ses concurrents. Parallèlement, la société a annoncé la mise en pause de son projet de datacenter au Royaume-Uni, une décision qui contraste avec l'ambition d'expansion mondiale affichée par OpenAI ces derniers mois. Cet argumentaire intervient dans un contexte de compétition intense pour le financement et la crédibilité commerciale. Pour les investisseurs, l'infrastructure représente une barrière à l'entrée concrète : elle conditionne la capacité à entraîner des modèles plus puissants, à tenir les délais de mise sur le marché, et à absorber des volumes d'utilisation croissants. Qu'OpenAI choisisse d'en faire un argument de différenciation signale que la bataille ne se joue plus uniquement sur la qualité des modèles, mais sur la profondeur des capacités opérationnelles. De son côté, Anthropic ne reste pas sans réponse : la startup explore la conception de puces IA personnalisées, une stratégie adoptée également par Google et Amazon pour réduire leur dépendance aux fournisseurs de semi-conducteurs comme Nvidia. Cette course aux ressources matérielles reflète une tendance de fond dans l'industrie, où la maîtrise de la chaîne de calcul devient aussi stratégique que les algorithmes eux-mêmes. La pause britannique d'OpenAI, quant à elle, soulève des questions sur les arbitrages géopolitiques et réglementaires qui pèsent sur les décisions d'implantation des grands acteurs de l'IA.

UELa mise en pause du projet de datacenter d'OpenAI au Royaume-Uni pourrait ralentir l'expansion des capacités d'infrastructure IA en Europe.

InfrastructureOpinion
1 source
CPUs, GPUs, TPUs, NPUs et LPUs : cinq architectures de calcul IA que tout ingénieur doit connaître
260MarkTechPost 

CPUs, GPUs, TPUs, NPUs et LPUs : cinq architectures de calcul IA que tout ingénieur doit connaître

L'intelligence artificielle moderne ne repose plus sur un seul type de processeur, mais sur un écosystème de puces spécialisées aux compromis bien distincts. Les CPU (processeurs centraux), architecture historique de l'informatique, restent indispensables pour l'orchestration des systèmes, la gestion des flux de données et la coordination des autres accélérateurs, mais leurs cœurs peu nombreux et leur traitement séquentiel les rendent inadaptés aux calculs massivement parallèles que nécessite l'IA à grande échelle. Les GPU (processeurs graphiques), conçus à l'origine pour le rendu vidéo, sont devenus la colonne vertébrale de l'entraînement des modèles de deep learning grâce à leurs milliers de cœurs capables d'exécuter simultanément les multiplications matricielles et opérations tensorielles au cœur des réseaux de neurones, une révolution rendue possible par l'introduction de CUDA par Nvidia. À ces deux architectures s'ajoutent les TPU (Tensor Processing Units) de Google, conçus spécifiquement pour l'exécution de réseaux de neurones avec un flux de données optimisé, les NPU (Neural Processing Units) intégrés dans les appareils grand public pour une inférence locale économe en énergie, et les LPU (Language Processing Units) de Groq, une innovation récente promettant une inférence nettement plus rapide et plus efficiente pour les grands modèles de langage. Ces distinctions architecturales ont des conséquences directes pour les entreprises et les ingénieurs qui déploient des systèmes d'IA en production. Choisir la mauvaise puce signifie payer trop cher pour de l'entraînement, subir une latence excessive en inférence, ou gaspiller de l'énergie sur des appareils embarqués. Les GPU restent le choix dominant pour l'entraînement intensif, mais leur coût élevé et leur disponibilité limitée poussent les acteurs à explorer des alternatives. Les NPU, désormais intégrés dans les puces Apple Silicon, Qualcomm Snapdragon ou Intel Core Ultra, permettent d'exécuter des modèles directement sur les terminaux sans cloud, réduisant latence et risques liés à la confidentialité. Les LPU de Groq, eux, ciblent précisément le goulot d'étranglement de l'inférence en production pour les LLM, avec des débits annoncés plusieurs fois supérieurs aux GPU traditionnels. Cette diversification des architectures de calcul reflète une transition plus profonde de l'industrie : le passage du calcul généraliste à l'optimisation par charge de travail. Pendant des décennies, la loi de Moore et les CPU universels ont suffi. Aujourd'hui, la demande explosive en puissance de calcul pour l'IA, portée par des modèles de plus en plus massifs comme GPT-4, Gemini ou Llama 3, dépasse ce que les architectures généralistes peuvent absorber efficacement. Google a investi massivement dans ses TPU v4 et v5 pour sécuriser son indépendance vis-à-vis de Nvidia, tandis que des startups comme Groq, Cerebras ou Tenstorrent parient sur des designs radicalement différents. Pour tout ingénieur IA, comprendre ces architectures n'est plus une curiosité académique : c'est une compétence opérationnelle pour concevoir des systèmes performants, économiques et adaptés aux contraintes réelles du déploiement.

UEL'intégration des NPU dans les appareils grand public (Apple Silicon, Qualcomm Snapdragon, Intel Core Ultra) permet aux entreprises et utilisateurs européens d'exécuter des modèles en local, réduisant la dépendance au cloud et les risques liés au RGPD.

InfrastructureOpinion
1 source
Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi
261MIT Technology Review 

Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi

Mustafa Suleyman, PDG de Microsoft AI et cofondateur de DeepMind, affirme que le développement de l'intelligence artificielle n'est pas près de plafonner. Depuis ses débuts dans le domaine en 2010, la puissance de calcul consacrée à l'entraînement des grands modèles a été multipliée par mille milliards : on est passé d'environ 10¹⁴ opérations en virgule flottante pour les premiers systèmes à plus de 10²⁶ aujourd'hui. Les puces Nvidia ont vu leurs performances brutes multipliées par huit en six ans, passant de 312 téraflops en 2020 à 2 500 téraflops aujourd'hui. La mémoire à haute bande passante HBM3 triple le débit de données par rapport à sa génération précédente. Des interconnexions comme NVLink et InfiniBand permettent désormais de relier des centaines de milliers de GPU en supercalculateurs de la taille d'un entrepôt. Ce qui prenait 167 minutes sur huit GPU en 2020 prend aujourd'hui moins de quatre minutes sur du matériel moderne, soit une amélioration de 50x là où la loi de Moore n'en prédisait que 5x. Les dépenses des grands laboratoires en infrastructure de calcul croissent à un rythme d'environ 4x par an, et le parc mondial de calcul dédié à l'IA devrait atteindre l'équivalent de 100 millions de puces H100 d'ici 2027. Ces chiffres ont des implications concrètes pour l'industrie : Suleyman estime qu'on pourrait voir encore 1 000x de puissance de calcul effective d'ici fin 2028. Parallèlement, les coûts d'inférence, c'est-à-dire d'utilisation des modèles, se sont effondrés d'un facteur allant jusqu'à 900 sur une base annualisée. L'IA devient donc radicalement moins chère à déployer, ce qui ouvre l'accès à des entreprises et des usages jusqu'ici inaccessibles économiquement. Selon les recherches d'Epoch AI, la quantité de calcul nécessaire pour atteindre un niveau de performance donné est divisée par deux environ tous les huit mois, un rythme bien supérieur aux 18 à 24 mois du cycle classique de Moore. Les sceptiques prédisent régulièrement un essoufflement de la progression, invoquant le ralentissement de la loi de Moore, la raréfaction des données d'entraînement ou les contraintes énergétiques. Suleyman balaie ces arguments en montrant que la dynamique repose sur trois leviers simultanés et indépendants : des puces plus rapides, une mémoire plus efficace, et une mise en réseau massive des GPU. Son propre laboratoire chez Microsoft a lancé en janvier 2026 la puce Maia 200, qui offre selon lui 30 % de meilleures performances par dollar que tout autre matériel de leur flotte. Le tableau qu'il dresse est celui d'une révolution encore en pleine accélération, où les avancées matérielles et logicielles se renforcent mutuellement, une perspective qui tranche avec le pessimisme ambiant sur les limites supposées de l'IA générative.

InfrastructureOpinion
1 source
Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch
262Frandroid 

Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch

Une développeuse a réussi à faire tourner Gemma 4, le modèle d'intelligence artificielle open source de Google, directement sur une Nintendo Switch, sans connexion à un serveur distant. L'exploit repose sur la version la plus compacte du modèle, publiée par Google en avril 2025 dans le cadre de sa gamme Gemma 4, qui décline plusieurs tailles allant de 1 à 27 milliards de paramètres. C'est la variante 1B, soit un milliard de paramètres, qui a été portée sur la console de Nintendo, dont le matériel repose sur une puce NVIDIA Tegra X1 et 4 Go de RAM partagée. Cet accomplissement illustre la progression rapide de la miniaturisation des modèles de langage et leur capacité à s'exécuter sur du matériel grand public, bien loin des serveurs GPU qui équipent habituellement ce type de charge de travail. Pour les développeurs embarqués et les constructeurs d'appareils connectés, cela ouvre des perspectives concrètes : intégrer des capacités d'inférence locale dans des terminaux à faible consommation, sans dépendance au cloud et sans coût de bande passante. Google a lancé la famille Gemma comme alternative ouverte à ses modèles propriétaires Gemini, ciblant explicitement les usages sur appareil. La Switch, conçue en 2017, n'était évidemment pas pensée pour l'IA générative, ce qui rend la démonstration d'autant plus symbolique. Elle s'inscrit dans une tendance plus large de course à l'efficience, où des acteurs comme Meta avec Llama, Microsoft avec Phi ou Apple avec ses modèles on-device cherchent tous à repousser les limites du possible sur silicium contraint.

LLMsActu
1 source
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI
263Next INpact 

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

OpenAI traverse une période de turbulences organisationnelles majeures. Fidji Simo, directrice générale des applications et numéro deux de l'entreprise, a annoncé fin mars un congé maladie forcé en raison du syndrome de tachycardie orthostatique posturale, diagnostiqué en 2019. Embauchée en mai 2025, l'ancienne PDG d'Instacart et ex-vice-présidente de Facebook avait en moins d'un an profondément recentré la stratégie d'OpenAI vers la génération de code et les services aux entreprises, au détriment de projets comme Sora ou le "mode adulte" de ChatGPT. Son départ temporaire entraîne une redistribution immédiate des responsabilités : le président Greg Brockman reprend sous sa direction le projet de "superapp" qui devait fusionner ChatGPT, Codex et le navigateur Atlas, tandis que Brad Lightcap, directeur des opérations, hérite des "projets spéciaux". Dans la foulée, Kate Rouch, directrice marketing depuis dix-huit mois, a également annoncé son retrait temporaire pour soigner un cancer. Ces départs simultanés tombent à un moment particulièrement délicat pour OpenAI, qui vient de boucler un tour de table colossal de 122 milliards de dollars et envisage une introduction en bourse à Wall Street en 2026. Selon The Information, des frictions existent entre la directrice financière Sarah Friar et Sam Altman sur le calendrier de l'IPO. Friar s'inquiète des procédures encore incomplètes, des risques liés aux engagements massifs en infrastructures serveurs, et d'une croissance des revenus qui tournerait en deçà des attentes. La marge brute 2025 aurait elle aussi déçu les investisseurs, rongée par des achats en urgence de capacités de calcul pour absorber une demande explosive. Détail révélateur de la complexité interne : Friar ne relevait pas de Sam Altman, comme le veut l'usage, mais directement de Fidji Simo, dont elle se retrouve désormais sans hiérarchie directe. Ce remue-ménage intervient dans un contexte où la gouvernance d'OpenAI est scrutée de près, en interne comme à l'extérieur. Un long portrait de Sam Altman publié ce week-end par The New Yorker, s'appuyant sur des témoignages et mémos internes, décrit un dirigeant habile et obsédé par la victoire, mais dont le style de management suscite des tensions répétées au sommet de l'organisation. OpenAI a connu en deux ans plusieurs crises de gouvernance majeures, dont le licenciement puis la réintégration d'Altman en novembre 2023. L'entreprise doit désormais prouver aux marchés et à ses investisseurs, dont SoftBank, Amazon et NVIDIA, qu'elle est capable de stabiliser son organisation avant de franchir le pas d'une cotation publique. La question n'est plus seulement technologique : c'est la maturité institutionnelle d'OpenAI qui est en jeu.

BusinessOpinion
1 source
Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?
264Le Big Data 

Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?

Une poignée de géants technologiques concentre aujourd'hui l'essentiel de la puissance de l'intelligence artificielle mondiale. Microsoft, en tête, a réalisé un pivot stratégique majeur en investissant plusieurs milliards de dollars dans OpenAI, le laboratoire créateur de ChatGPT. En échange de ce partenariat exclusif, la firme de Redmond intègre les modèles GPT dans l'ensemble de son écosystème sous la marque Copilot : Windows, la suite Office, GitHub et ses outils de cybersécurité. Son cloud Azure sert simultanément de plateforme d'entraînement pour OpenAI et d'infrastructure pour les entreprises souhaitant déployer leurs propres applications d'IA. Alphabet, maison mère de Google, incarne quant à elle une présence encore plus ancienne dans le domaine : en 2017, ses chercheurs ont publié "Attention Is All You Need", le papier fondateur de l'architecture transformer sur laquelle reposent aujourd'hui la quasi-totalité des grands modèles de langage. Nvidia, OpenAI, Meta, Amazon, Apple, Anthropic et d'autres acteurs complètent ce cercle restreint qui contrôle modèles, puces et infrastructure cloud. Ce niveau de concentration a des conséquences directes sur l'ensemble de l'économie numérique. En contrôlant à la fois les algorithmes et l'infrastructure, ces entreprises deviennent les principaux distributeurs d'IA pour des centaines de millions d'utilisateurs et pour les entreprises qui cherchent à automatiser leurs processus. Microsoft et Google, en particulier, transforment des logiciels déjà massivement adoptés en interfaces d'intelligence artificielle, rendant l'adoption quasi-transparente pour l'utilisateur final. Les entreprises qui souhaitent développer leurs propres solutions d'IA se retrouvent en grande partie dépendantes de l'infrastructure cloud de ces mêmes acteurs, renforçant ainsi leur position dominante sur toute la chaîne de valeur, de la recherche fondamentale jusqu'à la distribution commerciale. Cette domination est le fruit de décennies d'investissement massif dans la recherche et l'infrastructure. Google Finance cette transformation depuis les années 2010 via DeepMind et Google Brain, tandis que Microsoft a su reconvertir sa position de leader du logiciel d'entreprise en levier d'adoption de l'IA générative. La barrière à l'entrée est désormais astronomique : entraîner un grand modèle de langage compétitif nécessite des dizaines de milliers de GPU et des investissements se chiffrant en milliards de dollars, ce que seuls quelques acteurs peuvent se permettre. La question qui se pose pour la suite est double : comment les régulateurs, notamment en Europe avec l'AI Act, vont-ils encadrer cette concentration de pouvoir technologique, et quels nouveaux entrants, à l'image d'Anthropic ou Mistral, parviendront à s'imposer face à des géants qui ont pris plusieurs longueurs d'avance ?

UELa concentration du pouvoir IA entre quelques géants américains renforce la dépendance des entreprises européennes à des infrastructures cloud étrangères, un enjeu central de l'AI Act et une menace directe pour la souveraineté numérique de l'UE.

BusinessActu
1 source
L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA
265IEEE Spectrum AI 

L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA

L'intelligence artificielle consomme des quantités colossales d'énergie, et cette réalité pousse chercheurs et entreprises à repenser en profondeur la manière dont les modèles sont entraînés. Plutôt que de continuer à concentrer le calcul dans d'immenses centres de données centralisés, une approche émerge : la décentralisation de l'entraînement, qui distribue le travail sur un réseau de nœuds indépendants. Des acteurs comme Nvidia, avec son infrastructure Spectrum-XGS Ethernet conçue pour relier des clusters GPU géographiquement séparés, ou Cisco avec son routeur 8223 destiné à connecter des clusters d'IA dispersés, ont déjà commercialisé des solutions dans ce sens. Plus radical encore, Akash Network propose une place de marché pair-à-pair baptisée "l'Airbnb des centres de données" : des entreprises ou particuliers disposant de GPU sous-utilisés les louent à ceux qui en ont besoin, sans construction d'infrastructure supplémentaire. Sur le plan logiciel, l'apprentissage fédéré permet à plusieurs organisations d'entraîner localement un modèle partagé, en n'échangeant que les poids du modèle avec un serveur central qui les agrège, sans jamais centraliser les données brutes. L'enjeu est considérable : l'entraînement représente l'une des phases les plus énergivores du cycle de vie d'un modèle d'IA, et les émissions carbone liées aux grands modèles de langage ne cessent d'augmenter. La décentralisation offre une réponse concrète en permettant au calcul d'aller là où l'énergie existe déjà, qu'il s'agisse d'un serveur dormant dans un laboratoire de recherche ou d'un ordinateur alimenté par des panneaux solaires. Cela évite de surcharger les réseaux électriques en construisant toujours plus de centres de données, et ouvre la voie à un modèle économique inédit où de petits GPU, jusqu'ici négligés, deviennent des ressources valorisables. Comme le souligne Greg Osuri, cofondateur d'Akash Network, le monde passe progressivement d'une dépendance exclusive aux GPU les plus puissants vers une utilisation combinée de matériels plus modestes mais abondants. Cette évolution s'inscrit dans un contexte où les grandes entreprises technologiques, faute d'avancées matérielles suffisamment rapides pour suivre la croissance des modèles, explorent déjà la mutualisation de plusieurs centres de données. L'approche décentralisée soulève néanmoins des défis techniques sérieux : les échanges constants de poids de modèles génèrent des coûts de communication élevés, et la moindre défaillance d'un nœud peut obliger à recommencer un lot d'entraînement entier. Pour y répondre, des chercheurs de Google DeepMind ont développé DiLoCo, un algorithme d'optimisation à faible communication conçu spécifiquement pour l'entraînement distribué. Les solutions nucléaires envisagées par les géants du secteur restent à plusieurs années de distance ; la décentralisation, elle, est déjà opérationnelle.

UELa décentralisation de l'entraînement pourrait alléger la pression sur les réseaux électriques européens, déjà sous tension face à la prolifération des centres de données.

InfrastructureOpinion
1 source
Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18
266Frandroid 

Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18

Intel a dévoilé une nouvelle technologie de compression neuronale baptisée TSNC (Texture Space Neural Compression), capable de réduire la taille des textures de jeux vidéo jusqu'à un facteur 18. Concrètement, un jeu qui occupe aujourd'hui 100 Go sur votre SSD pourrait n'en réclamer que quelques gigaoctets de données textures, tandis que la mémoire vidéo nécessaire au rendu en temps réel serait drastiquement allégée. La technologie repose sur des réseaux de neurones entraînés à compresser puis reconstruire les textures à la volée, à la manière d'un codec vidéo mais appliqué aux surfaces 3D. L'enjeu est considérable pour les joueurs PC, confrontés à une inflation galopante des tailles de jeux : certains titres récents dépassent les 150 à 200 Go, et les cartes graphiques milieu de gamme peinent à suivre avec leurs 8 à 12 Go de VRAM. Une compression neuronale efficace permettrait de démocratiser l'accès aux jeux les plus exigeants sans forcer les utilisateurs à investir dans du matériel haut de gamme, et soulagerait les SSD qui atteignent souvent leurs limites de capacité. Cette annonce s'inscrit dans une course technologique plus large entre les fabricants de GPU : Nvidia propose déjà des solutions similaires avec ses technologies de compression basées sur l'IA, et AMD travaille sur des approches comparables. Intel, dont l'arc GPU cherche encore à s'imposer sur le marché, mise sur le TSNC comme argument différenciant. La prochaine étape sera l'adoption par les studios de développement, qui devront intégrer ces outils dans leurs pipelines de création pour que la technologie tienne réellement ses promesses en conditions réelles.

InfrastructureActu
1 source
RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch
267MarkTechPost 

RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch

RightNow AI a publié AutoKernel, un framework open-source qui automatise l'optimisation des kernels GPU pour n'importe quel modèle PyTorch. Le principe est simple : soumettre un modèle avant de dormir et retrouver au matin des kernels Triton plus rapides, sans avoir à maîtriser la programmation GPU de bas niveau. Le système repose sur une boucle agentique autonome : un agent LLM modifie un fichier kernel.py, un banc de test vérifie la correction puis mesure le débit, et le résultat détermine si la modification est conservée ou annulée via un git reset. Chaque itération dure environ 90 secondes, ce qui permet de réaliser 300 à 400 expériences lors d'une session de 10 heures. L'agent suit un manuel d'optimisation en six niveaux encodé dans un document de 909 lignes, couvrant le réglage des tailles de blocs, les patterns d'accès mémoire, les optimisations de calcul comme TF32, les techniques avancées comme split-K, et les stratégies spécifiques aux architectures Hopper et Ampere de NVIDIA. L'enjeu est considérable pour l'industrie du machine learning. Optimiser un kernel GPU de haute performance exige de raisonner simultanément sur l'intensité arithmétique, la coalescence mémoire, la pression sur les registres, la synchronisation au niveau warp et la sélection des instructions tensor core, un ensemble de compétences qui prend des années à acquérir. Un seul kernel de multiplication matricielle performant peut représenter plus de 200 lignes de code CUDA ou Triton avec des dizaines de paramètres interdépendants. La suite de benchmarks KernelBench, qui évalue les grands modèles de langage sur 250 problèmes de kernels GPU, a montré que même les meilleurs modèles n'égalaient la baseline PyTorch que dans moins de 20 % des cas en génération directe. AutoKernel répond précisément à ce déficit en rendant cette expertise accessible sans spécialiste humain, ce qui pourrait accélérer significativement le développement et le déploiement de modèles d'IA. L'approche s'inspire directement du projet autoresearch d'Andrej Karpathy, dans lequel une boucle keep/revert appliquée à du code d'entraînement LLM avait permis de découvrir 20 optimisations en 700 expériences sur deux jours avec un seul GPU. AutoKernel transpose cette logique à l'espace des kernels, en substituant la loss de validation par un benchmark de correction et de débit comme fonction d'évaluation. La traçabilité est assurée par git, les résultats étant stockés dans un fichier TSV lisible directement par l'agent. Ce type de framework illustre une tendance plus large où les tâches d'ingénierie hautement spécialisées deviennent des cibles pour l'automatisation agentique, réduisant la dépendance aux rares experts en optimisation GPU à mesure que les architectures de modèles continuent d'évoluer.

💬 L'idée de laisser tourner une boucle agentique toute la nuit pour sortir des kernels Triton optimisés au matin, c'est exactement ce qu'on attendait depuis qu'on a vu Karpathy faire la même chose sur du code d'entraînement. La partie vraiment bien foutue, c'est le mécanisme d'évaluation : un benchmark de correction avant tout, et le git reset si ça régresse, ce qui évite de passer des heures à débugger des "optimisations" qui cassent tout. Pour les équipes sans expert CUDA dans les jambes, c'est une vraie bouffée d'air.

OutilsOutil
1 source
MaxToki : l'IA qui prédit comment vos cellules vieillissent et comment l'éviter
268MarkTechPost 

MaxToki : l'IA qui prédit comment vos cellules vieillissent et comment l'éviter

Une équipe internationale de chercheurs, impliquant notamment les Instituts Gladstone (maladies cardiovasculaires, neurologiques, sciences des données) et l'Université de Californie San Francisco, a développé MaxToki, un modèle d'intelligence artificielle capable de prédire l'évolution dans le temps de l'état génétique des cellules humaines. Contrairement aux modèles existants qui analysent les cellules comme des instantanés figés, MaxToki intègre une dimension temporelle, essentielle pour comprendre comment les cellules vieillissent. Le modèle repose sur une architecture de type transformer décodeur -- la même famille que les grands modèles de langage -- et a été entraîné sur des données de séquençage d'ARN unicellulaire. Il existe en deux versions : 217 millions et 1 milliard de paramètres. Son entraînement s'est déroulé en deux étapes, la première s'appuyant sur Genecorpus-175M, un corpus d'environ 175 millions de transcriptomes unicellulaires issus de 10 795 jeux de données publics, générant quelque 290 milliards de tokens. Une particularité technique clé est l'encodage par rang : plutôt que d'injecter des comptages bruts d'expression génique, chaque cellule est représentée par une liste de gènes classés selon leur expression relative, ce qui rend le modèle plus robuste face aux biais techniques des données biologiques. MaxToki ouvre des perspectives concrètes dans l'étude du vieillissement cellulaire et des maladies qui en découlent -- insuffisance cardiaque, maladie d'Alzheimer, fibrose pulmonaire -- des pathologies qui se développent sur des décennies à travers des changements progressifs dans les réseaux de gènes. Pouvoir modéliser ces trajectoires, et non plus seulement l'état instantané d'une cellule, représente un saut qualitatif pour la recherche biomédicale. La capacité à prédire "où va" une cellule pourrait accélérer l'identification de cibles thérapeutiques et la mise au point d'interventions capables de ralentir ou d'inverser ces processus dégénératifs, avant même l'apparition de symptômes cliniques. Le projet s'inscrit dans une vague plus large de fondation models appliqués à la biologie, une discipline où des acteurs comme NVIDIA (partenaire de ce projet), Google avec son modèle Evo, et plusieurs startups de biotech cherchent à reproduire le succès des LLMs dans le domaine du vivant. La plupart des modèles existants peinent à capturer la dynamique temporelle des systèmes biologiques, limitant leur utilité pour les maladies chroniques. MaxToki répond à ce manque en étendant notamment sa fenêtre de contexte de 4 096 à 16 384 tokens via la technique RoPE scaling, et en excluant délibérément les cellules cancéreuses et lignées immortalisées de l'entraînement pour ne pas biaiser l'apprentissage des dynamiques normales. Des institutions allemandes (Goethe University Frankfurt, Centre allemand de recherche cardiovasculaire) et japonaises (Université de Kyoto, Centre iPS) contribuent également, signe que la course aux modèles fondationnels en biologie est désormais pleinement internationale.

UEDes institutions allemandes (Goethe University Frankfurt, Centre allemand de recherche cardiovasculaire) participent au projet, positionnant l'Europe comme contributeur dans la course aux modèles fondationnels biologiques.

RecherchePaper
1 source
Semaine nationale de la robotique : dernières avancées en IA physique et ressources
269NVIDIA AI Blog 

Semaine nationale de la robotique : dernières avancées en IA physique et ressources

À l'occasion de la Semaine nationale de la robotique aux États-Unis, NVIDIA met en avant ses avancées dans le domaine de l'intelligence artificielle physique, c'est-à-dire l'IA appliquée à des robots capables d'agir dans le monde réel. L'entreprise présente cette semaine une série de technologies couvrant la simulation, la génération de données synthétiques et l'apprentissage automatique pour robots, destinées aux développeurs qui souhaitent concevoir des machines autonomes opérationnelles dans des environnements complexes. L'enjeu est considérable : ces outils permettent de réduire drastiquement le temps nécessaire pour passer de l'entraînement en environnement virtuel au déploiement sur le terrain. Concrètement, un robot peut aujourd'hui apprendre à naviguer, saisir des objets ou réagir à des imprévus dans un simulateur NVIDIA avant d'être testé dans une usine, une serre agricole ou une centrale énergétique. Ce raccourci entre simulation et réalité est l'un des verrous techniques les plus critiques de la robotique industrielle. NVIDIA se positionne comme la colonne vertébrale de cette transition, en proposant des plateformes intégrées qui couvrent l'ensemble de la chaîne de développement robotique. La compétition dans ce secteur s'intensifie, avec des acteurs comme Boston Dynamics, Figure AI ou Agility Robotics qui cherchent eux aussi à industrialiser leurs solutions. La Semaine de la robotique sert ici de vitrine stratégique pour NVIDIA, qui entend s'imposer comme fournisseur incontournable d'infrastructure IA pour la prochaine génération de robots autonomes dans l'industrie, l'agriculture et l'énergie.

UELes plateformes de simulation et d'entraînement robotique de NVIDIA sont accessibles aux développeurs et industriels européens, mais cet événement est centré sur le marché américain sans impact direct sur la France/UE.

💬 Le vrai sujet ici, c'est pas la Semaine de la robotique, c'est NVIDIA qui s'impose discrètement comme le AWS de la robotique industrielle. La réduction du gap sim-to-real, c'est le verrou qui bloquait tout depuis des années, et là ils ont une vraie réponse technique. Reste à voir si les industriels européens vont jouer le jeu ou rester dépendants d'une stack américaine de plus.

RobotiqueActu
1 source
Cognichip lève 60 M$ pour confier la conception des puces à l’IA
270Le Big Data 

Cognichip lève 60 M$ pour confier la conception des puces à l’IA

La startup américaine Cognichip a annoncé avoir levé 60 millions de dollars pour développer une intelligence artificielle capable de concevoir des puces électroniques. Ce tour de table, mené par Seligman Ventures, porte le total des fonds levés par l'entreprise à 93 millions de dollars depuis sa fondation en 2024. Parmi les nouveaux investisseurs figure Lip-Bu Tan, PDG d'Intel, qui rejoint le conseil d'administration aux côtés d'Umesh Padval, associé-gérant chez Seligman. Fondée par Faraj Aalaei, Cognichip développe un modèle d'apprentissage profond spécialisé dans la conception de semi-conducteurs, avec l'ambition affichée de réduire les coûts de développement de plus de 75 % et de diviser par deux les délais de mise sur le marché. L'enjeu est considérable : concevoir une puce moderne prend entre trois et cinq ans, dont deux ans rien que pour la phase de conception, avant même que la fabrication ne démarre. Avec des composants comme le GPU Blackwell de Nvidia intégrant 104 milliards de transistors, la complexité atteint des niveaux qui rendent ce calendrier difficilement tenable. Faraj Aalaei pointe un risque structurel : le marché évolue parfois plus vite que les puces elles-mêmes, rendant un produit potentiellement obsolète avant sa sortie. L'approche de Cognichip consiste à transposer dans le monde du silicium ce que l'IA fait déjà pour les développeurs logiciels, en automatisant les tâches répétitives et en accélérant les itérations de conception. Si les promesses se concrétisent, c'est tout le calendrier de l'industrie des semi-conducteurs qui pourrait être revu. Cognichip opère dans un secteur où les données sont rares et jalousement gardées : contrairement aux développeurs logiciels qui partagent leur code en open source, les concepteurs de puces protègent leurs travaux avec soin. Pour contourner cet obstacle, la startup a constitué ses propres jeux de données en combinant données synthétiques et contenus sous licence, tout en proposant aux fabricants des mécanismes permettant d'entraîner les modèles sur leurs données internes sans les exposer. Elle s'appuie aussi sur des standards ouverts comme l'architecture RISC-V, qu'elle a utilisée lors d'un hackathon avec des étudiants de l'Université d'État de San José. La startup reste cependant discrète sur ses avancées concrètes : aucune puce conçue avec son système n'a encore été présentée publiquement, et ses clients demeurent confidentiels. Elle devra surtout convaincre face aux géants établis du secteur, Synopsys et Cadence Design Systems, qui couvrent déjà l'intégralité du cycle de vie d'un composant avec leurs propres outils d'automatisation.

InfrastructureActu
1 source
AWS met à l'échelle des modèles de fondation sismiques : entraînement distribué avec Amazon SageMaker HyperPod et extension des fenêtres de contexte
271AWS ML Blog 

AWS met à l'échelle des modèles de fondation sismiques : entraînement distribué avec Amazon SageMaker HyperPod et extension des fenêtres de contexte

TGS, fournisseur de données géoscientifiques pour le secteur énergétique, a réduit le temps d'entraînement de ses modèles fondamentaux sismiques (SFM) de 6 mois à seulement 5 jours grâce à un partenariat avec le AWS Generative AI Innovation Center (GenAIIC). Ces modèles, basés sur une architecture Vision Transformer (ViT) avec entraînement par Masked AutoEncoder (MAE), analysent des données sismiques 3D complexes pour identifier des structures géologiques essentielles à l'exploration énergétique. L'infrastructure déployée repose sur Amazon SageMaker HyperPod, un cluster de 16 instances EC2 P5 équipées chacune de 8 GPU NVIDIA H200 avec 141 Go de mémoire HBM3e, 2 048 Go de RAM système et une connectivité réseau EFAv3 à 3 200 Gbps pour minimiser la latence entre les noeuds. Les données d'entraînement, plusieurs téraoctets, sont streamées directement depuis Amazon S3 sans couche de stockage intermédiaire. Cet accomplissement représente un changement de paradigme pour l'industrie pétrolière et gazière, où l'exploration géologique repose de plus en plus sur des modèles d'IA capables d'interpréter des volumes sismiques massifs. En passant de 6 mois à 5 jours par cycle d'entraînement, TGS peut désormais incorporer de nouvelles données beaucoup plus fréquemment et itérer rapidement sur ses modèles, ce qui se traduit directement en valeur pour ses clients. L'autre avancée majeure est l'extension de la fenêtre de contexte du modèle grâce à des techniques de parallélisme contextuel, permettant d'analyser des volumes 3D nettement plus grands qu'auparavant et de capturer simultanément les détails locaux et les structures géologiques à grande échelle, deux informations jusqu'ici difficiles à obtenir en un seul passage. Le projet s'inscrit dans une modernisation plus large de l'infrastructure AWS de TGS et illustre une tendance croissante dans les industries à forte intensité de données, comme l'énergie ou les géosciences, qui adoptent les modèles fondamentaux spécialisés pour remplacer les pipelines d'analyse traditionnels. L'entraînement distribué à grande échelle sur des données 3D volumétriques pose des défis spécifiques — temps GPU inactifs, goulots d'étranglement réseau, gestion des checkpoints sur des clusters multi-noeuds — que SageMaker HyperPod adresse avec une surveillance automatique de la santé des instances et une gestion résiliente des reprises. La collaboration entre TGS et l'équipe GenAIIC d'AWS ouvre la voie à des modèles sismiques de prochaine génération capables d'analyser des formations géologiques encore plus complexes, avec des implications directes sur l'efficacité et la précision de l'exploration pétrolière et gazière à l'échelle mondiale.

InfrastructureActu
1 source
Comment installer NemoClaw en 5 minutes : guide pas-à-pas
272Le Big Data 

Comment installer NemoClaw en 5 minutes : guide pas-à-pas

NemoClaw, l'outil de sandbox développé par NVIDIA pour sécuriser les agents autonomes d'intelligence artificielle, s'installe désormais en moins de cinq minutes via un script bash « one-liner ». Le processus repose sur Docker, qui confine chaque agent dans sa propre bulle isolée, et nécessite un noyau Linux à jour — ou WSL2 pour les utilisateurs Windows. Côté matériel, le minimum requis est 16 Go de RAM et une carte graphique NVIDIA avec les pilotes CUDA à jour, condition sans laquelle la sandbox ne détecte tout simplement pas la GPU. Une fois ces prérequis validés, le script télécharge automatiquement les dépendances, gère Node.js et prépare l'environnement OpenClaw sans intervention manuelle. Une phase interactive — le Wizard Onboarding — complète l'installation en quatre étapes : nommage de la sandbox, choix du modèle de langage (local ou via API cloud), et configuration des paramètres d'isolation. L'enjeu derrière cette simplicité d'installation est significatif. En 2026, les grands modèles de langage sont des cibles privilégiées pour les cyberattaques, et l'isolation des processus est devenue une exigence de sécurité fondamentale pour quiconque déploie de l'IA en production. NemoClaw répond à ce besoin en créant une barrière étanche entre le code exécuté par l'agent et le système hôte, limitant drastiquement la surface d'attaque. Le fait que cette protection soit accessible en cinq minutes, sans compétences poussées en administration système, change la donne pour les développeurs indépendants et les petites équipes qui ne peuvent pas se permettre un département sécurité dédié. L'approche conteneurisée via Docker permet par ailleurs de gérer plusieurs agents en parallèle dans des environnements strictement séparés. NVIDIA positionne NemoClaw dans un contexte industriel où la prolifération des agents autonomes pose des questions de gouvernance de plus en plus pressantes. Les incidents liés à des fuites de données via des LLM mal isolés se sont multipliés ces derniers mois, poussant les grands acteurs technologiques à proposer des solutions clés en main. NVIDIA, qui domine déjà le marché du matériel IA avec ses GPU, étend ainsi son influence vers la couche logicielle de sécurité — un mouvement stratégique qui lui permet de verrouiller davantage l'écosystème autour de ses cartes RTX. La compatibilité avec des modèles locaux comme avec des API cloud laisse ouverte la question de la dépendance aux infrastructures propriétaires, un débat que la communauté open source n'a pas fini de trancher.

UELes équipes de développement européennes déployant des agents IA en production peuvent adopter cet outil d'isolation pour renforcer leur sécurité sans compétences avancées en administration système.

SécuritéTuto
1 source
L'IA peut appuyer sur les boutons de votre Stream Deck à votre place
273The Verge AI 

L'IA peut appuyer sur les boutons de votre Stream Deck à votre place

Elgato a lancé le 1er avril 2026 la version 7.4 de son logiciel Stream Deck, introduisant le support du Model Context Protocol (MCP). Cette mise à jour permet aux assistants IA — dont Claude d'Anthropic, ChatGPT d'OpenAI et G-Assist de Nvidia — de détecter et déclencher des actions configurées sur un Stream Deck à la demande de l'utilisateur. Concrètement, il suffit de taper ou dicter une instruction à son assistant IA préféré pour qu'il active le raccourci correspondant, sans toucher physiquement au périphérique. Pour les streamers, créateurs de contenu et professionnels qui utilisent le Stream Deck comme tableau de bord pour automatiser des tâches — changer de scène OBS, lancer une musique, envoyer un message — cette intégration ouvre une nouvelle couche d'interaction. L'utilisateur continue de configurer ses actions dans l'application Stream Deck comme avant ; le MCP vient simplement ajouter un canal de déclenchement vocal ou textuel via l'IA. Cela réduit la friction pour les flux de travail complexes où retenir l'emplacement de chaque bouton devient fastidieux. Le Model Context Protocol est un standard ouvert promu notamment par Anthropic pour permettre aux modèles de langage d'interagir avec des applications tierces de façon standardisée. Son adoption par Elgato illustre une tendance croissante : les fabricants de périphériques hardware intègrent directement des couches IA dans leurs outils, transformant des appareils physiques en surfaces contrôlables par langage naturel. Après les IDE, les navigateurs et les outils de productivité, c'est désormais le matériel grand public qui entre dans l'écosystème MCP.

OutilsOutil
1 source
En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang
274Presse-citron 

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Donald Trump a annoncé la création d'un « Conseil des Sages » dédié aux sciences et technologies, intégrant des figures majeures de la tech américaine comme Mark Zuckerberg (Meta) et Jensen Huang (Nvidia). Ce type d'instance consultative a existé sous d'autres présidences, mais c'est la première fois qu'elle est aussi explicitement orientée vers l'intelligence artificielle. Cette initiative intervient dans un contexte de questionnement croissant sur la stratégie américaine en matière d'IA, notamment face à la montée en puissance de la Chine. Associer directement les PDG des entreprises les plus influentes du secteur au sommet de l'État signale une volonté de coordonner politique publique et industrie privée à un niveau inédit. Les États-Unis cherchent ainsi à structurer une gouvernance de l'IA au plus haut niveau, alors que la concurrence technologique mondiale s'intensifie et que les débats sur la régulation restent vifs.

UEUne coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

RégulationReglementation
1 source
Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial
275NVIDIA AI Blog 

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
Meta recrute une équipe star de l’IA pour créer les assistants du futur
276Siècle Digital 

Meta recrute une équipe star de l’IA pour créer les assistants du futur

Meta renforce ses capacités en agents IA en recrutant une équipe spécialisée, dans une démarche qui s'apparente à une acquisition sans rachat formel. Cette initiative s'inscrit dans la tendance générale autour des assistants IA, illustrée par des projets comme OpenClaw et NemoClaw (Nvidia). Meta cherche ainsi à rester compétitif dans la course aux agents IA du futur.

BusinessActu
1 source
Une visite exclusive du laboratoire Trainium d'Amazon, la puce qui a conquis Anthropic, OpenAI et même Apple
277TechCrunch AI 

Une visite exclusive du laboratoire Trainium d'Amazon, la puce qui a conquis Anthropic, OpenAI et même Apple

Amazon a annoncé un investissement de 50 milliards de dollars dans OpenAI, et AWS a ouvert les portes de son laboratoire de puces Trainium en visite privée. Ce chip maison a séduit des acteurs majeurs de l'IA comme Anthropic, OpenAI et même Apple. Trainium s'impose ainsi comme un concurrent sérieux aux GPU Nvidia dans la course à l'infrastructure IA.

InfrastructureActu
1 source
Vidéo du vendredi : un robot humanoïde apprend à jouer au tennis face à des humains
278IEEE Spectrum AI 

Vidéo du vendredi : un robot humanoïde apprend à jouer au tennis face à des humains

Des chercheurs ont développé LATENT, un système permettant à un robot humanoïde d'apprendre des compétences de tennis dynamiques à partir de données de mouvement humain imparfaites. Par ailleurs, la startup Sharpa revendique être la première entreprise robotique à démontrer un robot épluchant une pomme avec deux mains dextres, grâce à leur architecture MoDE-VLA (Mixture of Dexterous Experts) fusionnant vision, langage, force et toucher. Ces avancées illustrent une semaine riche en démonstrations de manipulation bimanuelle de contact et de locomotion avancée, dont un robot UMV entraîné via NVIDIA Isaac Lab capable de sauter et de faire des pirouettes.

RobotiqueActu
1 source
Voici Giga, un développeur de centres de données IA qui a levé très peu de capital
279The Information AI 

Voici Giga, un développeur de centres de données IA qui a levé très peu de capital

Giga Energy, startup texane fondée en 2019 par deux étudiants de Texas A&M, a généré plus de 270 millions de dollars de revenus en restant quasi entièrement autofinancée, avec seulement 3,4 millions levés en capital. L'entreprise fabrique des transformateurs et appareillages électriques pour data centers, utilisés notamment par CoreWeave, tout en construisant ses propres data centers IA à base de GPU Nvidia. Face à ses ambitions d'expansion rapide, une levée de fonds significative semble inévitable.

BusinessActu
1 source
IA dans l’espace : Starcloud veut placer 80 000 satellites datacenters en orbite
280ZDNET FR 

IA dans l’espace : Starcloud veut placer 80 000 satellites datacenters en orbite

Starcloud, soutenue par Nvidia, projette de déployer 80 000 satellites-datacenters en orbite pour exploiter l'énergie solaire illimitée de l'espace. L'objectif est de délocaliser l'infrastructure de calcul IA hors de la Terre. Google et SpaceX se positionnent également sur ce créneau émergent.

InfrastructureActu
1 source
Unsloth AI lance Unsloth Studio : une interface locale sans code pour l'affinage haute performance des LLM avec 70 % de VRAM en moins
281MarkTechPost 

Unsloth AI lance Unsloth Studio : une interface locale sans code pour l'affinage haute performance des LLM avec 70 % de VRAM en moins

Unsloth AI a lancé Unsloth Studio, une interface locale no-code open-source permettant de fine-tuner des LLMs avec 70% moins de VRAM grâce à des kernels Triton optimisés, atteignant une vitesse d'entraînement 2x supérieure. L'outil supporte des modèles jusqu'à 70B paramètres (Llama 3.1, 3.3, DeepSeek-R1) sur un seul GPU grand public comme le RTX 4090, via les techniques LoRA et QLoRA. Il intègre également un pipeline visuel de préparation des données (PDF, DOCX, CSV), la génération de données synthétiques via NVIDIA DataDesigner, et le support du reinforcement learning GRPO.

OutilsOutil
1 source
Alibaba lance une plateforme d'agents IA pour les entreprises
282AI Business 

Alibaba lance une plateforme d'agents IA pour les entreprises

Alibaba a lancé une plateforme d'agents IA dédiée aux entreprises, dans un contexte de concurrence croissante sur le marché des agents IA en Chine. Nvidia et Meta ont également récemment fait leur entrée dans l'espace des agents personnels.

OutilsOutil
1 source
DLSS 5 ressemble à un filtre IA génératif en temps réel pour les jeux vidéo
283The Verge AI 

DLSS 5 ressemble à un filtre IA génératif en temps réel pour les jeux vidéo

Nvidia a annoncé DLSS 5 lors de sa conférence GTC, une mise à jour qui intègre l'IA générative au rendu graphique en temps réel dans les jeux vidéo. Le PDG Jensen Huang la décrit comme "le moment GPT du graphisme", promettant des améliorations notables de l'éclairage et des ombres. La mise à jour divise déjà la communauté : certains saluent le bond en réalisme visuel, d'autres critiquent une altération inacceptable de l'intention artistique des créateurs.

OutilsOutil
1 source
Les avantages de l'IA physique deviennent l'arme secrète de la fabrication
284MIT Technology Review 

Les avantages de l'IA physique deviennent l'arme secrète de la fabrication

La transformation industrielle évolue vers l'intelligence physique, où l'IA opère fiablement dans le monde réel. Microsoft et NVIDIA collaborent pour aider les fabricants à passer de l'expérimentation à la production à grande échelle. Les fabricants de frontière privilégient l'expansion des capacités humaines, l'accélération de l'innovation et la création de nouvelles valeurs, tout en maintenant la fiabilité et le contrôle. L'industrie manufacturière, centrale dans ce changement, intègre l'IA dans l'exécution physique, comblant le fossé entre l'automatisation et l'adaptabilité humaine grâce à l'IA physique.

UEL'alliance Microsoft-NVIDIA renforce l'intégration de l'IA physique dans la fabrication européenne, potentiellement boostant les entreprises comme Mistral, OVHcloud, Dassault, SAP, et Airbus en améliorant leur automatisation et adaptabilité.

RobotiqueOutil
1 source
285The Decoder 

Meta dévoile quatre générations de puces IA maison pour réduire les coûts d'inférence pour des milliards d'utilisateurs

Meta dévoile quatre nouvelles générations de puces IA personnalisées dédiées à l'inférence, visant à réduire sa dépendance envers les fabricants de GPU comme Nvidia et AMD. L'objectif est de diminuer les coûts d'inférence pour ses milliards d'utilisateurs. Cette initiative s'inscrit dans la stratégie de Meta pour maîtriser davantage son infrastructure matérielle d'IA.

BusinessActu
1 source
286AI News 

Ai2 : développer une IA physique grâce aux données de simulation virtuelle

L'Allen Institute for AI (Ai2) a développé MolmoBot, un modèle de manipulation robotique entraîné entièrement sur des données synthétiques, sans recourir aux démonstrations téléopérées coûteuses utilisées par des projets comme RT-1 de Google DeepMind (130 000 épisodes sur 17 mois). Grâce à leur système MolmoSpaces et au moteur physique MuJoCo sur 100 GPU Nvidia A100, l'équipe a généré 1,8 million de trajectoires d'entraînement, soit un débit 4 fois supérieur à la collecte réelle. Cette approche, selon le CEO Ali Farhadi, vise à démocratiser la robotique en offrant des outils open source à toute la communauté de recherche mondiale.

RobotiquePaper
1 source
287Wired AI 

Meta développe 4 nouvelles puces pour alimenter ses systèmes d'IA et de recommandation

Meta a développé 4 nouveaux processeurs MTIA destinés à alimenter ses systèmes d'IA et de recommandation. Cette initiative marque la dernière tentative du géant technologique de produire son propre matériel IA, tout en continuant à investir des milliards dans les équipements de leaders du secteur comme Nvidia.

BusinessActu
1 source
288AI News 

Nouvel alliance pour offrir des robots intelligents dans des environnements à haut risque

ADLINK Technology et Under Control Robotics (derrière la startup Noble Machines) ont conclu un partenariat stratégique pour développer une nouvelle génération de robots humanoïdes bipèdes destinés aux environnements industriels dangereux. Leur solution combinera la plateforme edge AI DLAP d'ADLINK (basée sur NVIDIA Jetson Thor) avec le logiciel d'autonomie et de contrôle corporel de Noble Machines, pour des robots capables de percevoir, raisonner et manipuler des charges lourdes en conditions extrêmes. Les secteurs cibles initiaux incluent la construction, les mines, l'énergie et la pétrochimie — des industries confrontées à des pénuries de main-d'œuvre et à des risques élevés pour les travailleurs humains.

RobotiqueActu
1 source
28901net 

Une IA qui « voit » le monde : le pari à 1 milliard de dollars de Yann LeCun

Yann LeCun, l'un des "parrains" de l'IA moderne et ancien responsable de l'IA chez Meta, a lancé une nouvelle start-up appelée AMI (Advanced Machine Intelligence). Elle a levé 1 milliard de dollars lors de son tour de table initial, avec des investisseurs comme Nvidia, Jeff Bezos, Samsung et Xavier Niel. AMI se distingue des grands modèles de langage en développant une IA capable de "voir" et comprendre le monde différemment.

UELa participation de Xavier Niel comme investisseur et les origines françaises de Yann LeCun positionnent la France comme actrice de ce projet d'IA de rupture doté d'un milliard de dollars.

RechercheActu
1 source
290MIT Technology Review 

Le Téléchargement : Le rôle de l'IA dans la guerre en Iran et un conflit juridique en escalade

Anthropic a poursuivi le gouvernement américain pour empêcher le Pentagone de la blacklister, tandis que la Maison-Blanche prépare un décret pour exclure ses technologies — une décision qui a suscité le soutien de Google, OpenAI et de nombreux experts. Par ailleurs, l'IA joue un rôle croissant dans le conflit en Iran, notamment via des tableaux de bord de renseignement "vibe-codés" qui médiatisent l'information en temps de guerre, souvent de manière problématique. Enfin, Nvidia prévoit de lancer une plateforme open-source pour agents IA baptisée "NemoClaw", et la startup d'IA de Yann LeCun a levé plus d'1 milliard de dollars lors du plus grand tour de table seed d'Europe.

UELa startup d'IA de Yann LeCun, figure française de l'IA mondiale, a réalisé le plus grand tour de table seed d'Europe avec plus d'un milliard de dollars levés, signalant une dynamique d'investissement historique dans l'écosystème européen de l'IA.

RégulationActu
1 source
291Le Big Data 

OpenAI et Oracle abandonnent l'extension du campus Stargate au Texas

OpenAI et Oracle ont abandonné leur projet d'extension du campus Stargate d'Abilene (Texas), qui devait porter la capacité de 1,2 à 2 gigawatts. Cette décision fait suite à des obstacles de financement, des retards d'approvisionnement en électricité, une panne du système de refroidissement liée au froid hivernal, et des tensions avec le partenaire infrastructure Crusoe. Les deux groupes préfèrent désormais développer de nouveaux sites ailleurs aux États-Unis, potentiellement équipés de puces Nvidia Vera Rubin plus récentes, ce qui fragilise la crédibilité du projet Stargate estimé à 500 milliards de dollars.

BusinessActu
1 source
292TechCrunch AI 

Sandberg et Clegg rejoignent le conseil d'administration de Nscale alors que cette start-up norvégienne « Stargate Norway » atteint une valorisation de 14,6 milliards de dollars

Nscale, la startup britannique d'infrastructure IA soutenue par Nvidia, a levé 2 milliards de dollars supplémentaires, portant sa valorisation à 14,6 milliards de dollars. Sheryl Sandberg et Nick Clegg rejoignent son conseil d'administration, renforçant la crédibilité de cette entreprise norvégienne surnommée le "Stargate Norway".

UELa montée en puissance de Nscale, start-up d'infrastructure IA d'origine norvégienne valorisée à 14,6 milliards de dollars, démontre que l'Europe peut faire émerger des acteurs crédibles face aux géants américains de l'infrastructure cloud IA, renforçant les ambitions de souveraineté numérique européenne.

BusinessActu
1 source
293MarkTechPost 

Andrej Karpathy publie « Autorecherche », un outil Python de 630 lignes permettant aux agents IA de mener des expériences de ML en autonomie sur un seul GPU

Andrej Karpathy a publié autoresearch, un outil Python minimaliste de 630 lignes permettant à des agents IA de mener des expériences de machine learning en totale autonomie sur un seul GPU NVIDIA. L'agent lit des instructions en Markdown, modifie le code d'entraînement (architecture, optimiseurs, hyperparamètres), exécute des runs de 5 minutes et ne conserve les changements que si le score bits-per-byte (BPB) s'améliore — Karpathy a ainsi démontré une réduction de la perte de validation de 1,0 à 0,97 BPB. Le PDG de Shopify, Tobi Lutke, a rapidement adapté le framework pour un projet interne, obtenant une amélioration de 19 % des scores de validation, avec un petit modèle optimisé par l'agent surpassant un modèle plus grand configuré manuellement.

OutilsOutil
1 source
294AI News 

L'IA physique fait son entrée triomphale et tout le monde veut en profiter

Le Physical AI, qui décrit les systèmes AI opérant dans le monde réel, gagne en popularité. Des entreprises occidentales comme Nvidia, Arm, Siemens et Google investissent massivement dans cette technologie, créant des plateformes et des semiconducteurs pour robots et véhicules intelligents. En Chine, l'accent est mis sur la construction matérielle de ces robots, avec des entreprises comme Boston Dynamics opérant directement dans des usines comme celle de Hyundai en Géorgie. Une enquête révèle que 58% des dirigeants d'entreprises mondiales utilisent déjà le Physical AI, et ce chiffre monte à 80% pour les plans futurs.

UEL'essor du Physical AI, avec des investissements majeurs de Nvidia, Arm, Siemens, Google, et Boston Dynamics, pose des opportunités et des défis pour les entreprises françaises et européennes dans les secteurs des robotiques et des véhicules intelligents, tout en se conformant aux exigences de la réglementation AI Act et du RGPD.

RobotiqueActu
1 source
295OpenAI Blog 

Présentation de Stargate UK

OpenAI, NVIDIA et Nscale ont lancé Stargate UK, un partenariat souverain en intelligence artificielle fournissant jusqu'à 50 000 GPU et le superordinateur le plus puissant du Royaume-Uni. Ce projet vise à accélérer l'innovation en IA, améliorer les services publics et stimuler la croissance économique du pays.

BusinessActu
1 source
296HuggingFace Blog 

Critiques de règles: Un modèle d'apprentissage automatique sous la loupe

Bienvenue à NVIDIA Llama Nemotron Nano VLM sur le Hugging Face Hub. NVIDIA présente une nouvelle version miniature de son modèle de traitement du langage, offrant des performances optimisées pour les appareils mobiles. Ce modèle, appelé Nemotron Nano, est maintenant disponible sur la plateforme Hugging Face Hub, permettant aux développeurs d'intégrer facilement ces capacités avancées dans leurs applications.

OutilsOutil
1 source