Aller au contenu principal
InfrastructureAI Business2h

Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon

1 source couvre ce sujet·Source originale ↗·

Microsoft a annoncé un investissement de 10 milliards de dollars au Japon, destiné au développement de l'intelligence artificielle et de la cybersécurité dans le pays. Cette enveloppe, l'une des plus importantes jamais engagées par le géant américain dans une seule région, sera déployée sur plusieurs années pour renforcer les infrastructures cloud, les centres de données et les capacités de défense numérique sur le territoire japonais.

Cet investissement massif répond à une demande croissante des entreprises et administrations japonaises en matière de solutions IA souveraines et sécurisées. Pour le Japon, qui cherche activement à rattraper son retard numérique face à ses voisins asiatiques, l'arrivée de cette infrastructure représente un levier concret de modernisation industrielle et de renforcement de sa résilience face aux cybermenaces, en nette augmentation dans la région.

Cet engagement s'inscrit dans une vague plus large d'investissements technologiques de Microsoft en Asie : l'entreprise a récemment annoncé des engagements similaires en Thaïlande et à Singapour. Cette stratégie régionale reflète la compétition acharnée entre les grands acteurs du cloud — Amazon, Google et Microsoft — pour s'imposer comme partenaires de confiance des gouvernements et grandes entreprises asiatiques à l'heure de l'accélération de l'IA.

À lire aussi

1MIT Technology Review 

Quatre conditions pour installer des centres de données dans l'espace

En janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission américaine pour lancer jusqu'à un million de centres de données en orbite terrestre. L'objectif affiché est de libérer le plein potentiel de l'intelligence artificielle sans aggraver la crise énergétique et hydrique sur Terre. SpaceX n'est pas seul sur ce créneau : Jeff Bezos a déclaré l'an dernier que l'industrie tech se dirigeait vers une informatique à grande échelle dans l'espace, Google prévoit de lancer une constellation test de 80 satellites de calcul dès l'année prochaine, et la startup Starcloud, basée dans l'État de Washington, a déjà mis en orbite en novembre 2024 un satellite équipé d'un GPU Nvidia H100, marquant le premier test orbital d'une puce IA avancée. Starcloud vise des centres de données orbitaux aussi grands que ceux au sol d'ici 2030. L'attrait de l'espace repose sur deux promesses concrètes : une énergie solaire continue en orbite héliosynchrone, sans jamais passer dans l'ombre de la Terre, et une dissipation thermique naturelle dans le vide, sans recourir aux millions de litres d'eau que consomment les data centers terrestres. Ces derniers pèsent déjà lourd sur les réseaux électriques locaux et génèrent des tensions dans les communautés voisines autour du prix des ressources. Avec la baisse continue des coûts de lancement et les méga-fusées comme Starship promises à réduire encore les tarifs, un point de basculement économique devient envisageable. Mais les obstacles techniques restent formidables : quatre défis majeurs se dressent avant toute mise en oeuvre réelle. Le premier est thermique. Contrairement à l'intuition, l'espace n'est pas froid pour un satellite en orbite constamment éclairée : sans convection possible dans le vide, la température des équipements ne descendrait jamais sous 80 °C, largement au-dessus des seuils acceptables pour l'électronique. Évacuer la chaleur par rayonnement seul exige de grandes surfaces radiatives, ce qui alourdit les satellites et complique leur mise en orbite. Yves Durand, ancien directeur technologique de Thales Alenia Space, juge néanmoins le problème surmontable : son étude de faisabilité de 2024 conclut qu'il est possible de construire des data centers de l'ordre du gigawatt en orbite, en s'appuyant sur des systèmes de fluide réfrigérant déjà développés pour les grands satellites de télécommunication. Les trois autres défis, tout aussi cruciaux, concernent la fiabilité des composants face aux radiations cosmiques, la latence des liaisons avec le sol, et le coût de maintenance d'infrastructures inaccessibles physiquement.

UEThales Alenia Space, entreprise franco-italienne, est citée comme acteur clé de la faisabilité technique des data centers orbitaux, positionnant l'Europe comme contributeur potentiel dans ce marché émergent.

InfrastructureOpinion
1 source
2Le Big Data 

Cognichip lève 60 M$ pour confier la conception des puces à l’IA

La startup américaine Cognichip a annoncé avoir levé 60 millions de dollars pour développer une intelligence artificielle capable de concevoir des puces électroniques. Ce tour de table, mené par Seligman Ventures, porte le total des fonds levés par l'entreprise à 93 millions de dollars depuis sa fondation en 2024. Parmi les nouveaux investisseurs figure Lip-Bu Tan, PDG d'Intel, qui rejoint le conseil d'administration aux côtés d'Umesh Padval, associé-gérant chez Seligman. Fondée par Faraj Aalaei, Cognichip développe un modèle d'apprentissage profond spécialisé dans la conception de semi-conducteurs, avec l'ambition affichée de réduire les coûts de développement de plus de 75 % et de diviser par deux les délais de mise sur le marché. L'enjeu est considérable : concevoir une puce moderne prend entre trois et cinq ans, dont deux ans rien que pour la phase de conception, avant même que la fabrication ne démarre. Avec des composants comme le GPU Blackwell de Nvidia intégrant 104 milliards de transistors, la complexité atteint des niveaux qui rendent ce calendrier difficilement tenable. Faraj Aalaei pointe un risque structurel : le marché évolue parfois plus vite que les puces elles-mêmes, rendant un produit potentiellement obsolète avant sa sortie. L'approche de Cognichip consiste à transposer dans le monde du silicium ce que l'IA fait déjà pour les développeurs logiciels, en automatisant les tâches répétitives et en accélérant les itérations de conception. Si les promesses se concrétisent, c'est tout le calendrier de l'industrie des semi-conducteurs qui pourrait être revu. Cognichip opère dans un secteur où les données sont rares et jalousement gardées : contrairement aux développeurs logiciels qui partagent leur code en open source, les concepteurs de puces protègent leurs travaux avec soin. Pour contourner cet obstacle, la startup a constitué ses propres jeux de données en combinant données synthétiques et contenus sous licence, tout en proposant aux fabricants des mécanismes permettant d'entraîner les modèles sur leurs données internes sans les exposer. Elle s'appuie aussi sur des standards ouverts comme l'architecture RISC-V, qu'elle a utilisée lors d'un hackathon avec des étudiants de l'Université d'État de San José. La startup reste cependant discrète sur ses avancées concrètes : aucune puce conçue avec son système n'a encore été présentée publiquement, et ses clients demeurent confidentiels. Elle devra surtout convaincre face aux géants établis du secteur, Synopsys et Cadence Design Systems, qui couvrent déjà l'intégralité du cycle de vie d'un composant avec leurs propres outils d'automatisation.

InfrastructureActu
1 source
3La Tribune 

Souveraineté numérique : Bull passe à l’offensive avec 500 embauches

Bull, l'entreprise française spécialisée dans les supercalculateurs, relancée par l'État français après sa scission d'Atos, annonce un plan de 500 recrutements, réalisés majoritairement en Europe. Ce mouvement offensif cible les domaines des supercalculateurs haute performance et de l'intelligence artificielle, deux secteurs jugés stratégiques pour l'indépendance technologique nationale. Cette offensive de recrutement signale la volonté de Bull de s'imposer comme un acteur souverain crédible face aux géants américains et asiatiques du calcul intensif. Dans un contexte où la puissance de calcul conditionne directement la compétitivité industrielle, la recherche scientifique et les capacités de défense, disposer d'un champion national dans ce domaine représente un enjeu majeur pour la France et l'Europe. Les 500 postes visent à renforcer les équipes d'ingénierie et à accélérer le développement de solutions locales non soumises aux lois extraterritoriales américaines. Bull a été séparé d'Atos lors de la restructuration du groupe technologique français, lui-même en difficulté financière depuis plusieurs années. L'État, actionnaire de référence, a choisi de préserver et de dynamiser cette branche stratégique plutôt que de la céder. Cette décision s'inscrit dans une tendance européenne plus large de réinvestissement dans les infrastructures numériques souveraines, portée notamment par le plan France 2030 et les ambitions du projet EuroHPC.

UEBull, champion national du calcul intensif soutenu par l'État français, recrute 500 ingénieurs majoritairement en Europe pour développer des alternatives souveraines aux solutions HPC et IA soumises aux lois extraterritoriales américaines.

InfrastructureActu
1 source
L’IA Slop n’est pas seul responsable de la pénurie de RAM : Apple y prend sa part
4Frandroid 

L’IA Slop n’est pas seul responsable de la pénurie de RAM : Apple y prend sa part

La pénurie mondiale de mémoire vive qui frappe le marché des composants informatiques depuis plusieurs mois trouve deux coupables de poids : la frénésie de l'IA générative d'un côté, et Apple de l'autre. Si les modèles de langage et les infrastructures d'entraînement aspirent des quantités massives de DRAM et de HBM, le géant de Cupertino contribue lui aussi significativement à la tension sur les approvisionnements, au point d'aggraver une situation déjà tendue pour les fabricants de PC et les constructeurs de serveurs. La demande d'Apple s'explique par la montée en gamme systématique de ses appareils : les Mac équipés de puces M-series intègrent désormais des configurations mémoire unifiée de plus en plus généreuses, tandis que les iPhone et iPad embarquent davantage de RAM pour supporter les fonctionnalités d'Apple Intelligence. Cette stratégie, combinée aux volumes colossaux produits par Apple chaque trimestre, mobilise une part non négligeable de la capacité mondiale des fondeurs comme SK Hynix, Samsung ou Micron. Le contexte est celui d'un marché DRAM sous pression depuis fin 2024, où l'explosion des besoins en mémoire pour les puces IA HBM a détourné les capacités de production vers ce segment plus rentable. Résultat : les prix de la RAM grand public et serveur remontent, et les délais d'approvisionnement s'allongent. La convergence de ces deux forces — IA et Apple — laisse peu de marge aux autres acteurs du marché pour absorber le choc.

UELes fabricants et acheteurs européens de PC et de serveurs subissent des hausses de prix et des délais d'approvisionnement allongés sur la mémoire vive.

InfrastructureOpinion
1 source