Aller au contenu principal
InfrastructureAWS ML Blog2h

Amazon Bedrock lance l'inférence d'IA générative en Asie-Pacifique (Nouvelle-Zélande)

1 source couvre ce sujet·Source originale ↗·

Amazon Bedrock est désormais disponible dans la région Asie-Pacifique (Nouvelle-Zélande), identifiée sous le code ap-southeast-6 et centrée sur Auckland. Cette expansion permet aux entreprises néo-zélandaises d'accéder directement aux modèles d'IA générative d'Anthropic et d'Amazon depuis leur région AWS locale, sans avoir à dépendre d'infrastructures situées en dehors du pays.

L'enjeu est significatif pour les organisations soumises à des exigences de résidence des données. Jusqu'ici, les clients néo-zélandais devaient s'appuyer sur des régions australiennes pour exploiter Amazon Bedrock, ce qui pouvait poser des contraintes réglementaires ou de conformité. L'intégration d'Auckland dans le profil de routage géographique AU répond directement à ces besoins, en garantissant que les données restent sur le réseau AWS — sans jamais transiter par l'internet public — et sont chiffrées en transit entre les régions.

Les modèles disponibles incluent toute la gamme Anthropic Claude : Claude Opus 4.5, Opus 4.6, Sonnet 4.5, Sonnet 4.6 et Haiku 4.5, ainsi que le modèle Amazon Nova 2 Lite, accessibles via l'inférence inter-régions. La configuration géographique AU couvre désormais trois régions : Auckland (ap-southeast-6), Sydney (ap-southeast-2) et Melbourne (ap-southeast-4). Les requêtes provenant d'Auckland peuvent ainsi être traitées localement ou redirigées vers l'une des deux régions australiennes selon la disponibilité. À noter : les profils existants pour Sydney et Melbourne continuent de router exclusivement entre ces deux villes — l'ajout d'Auckland ne modifie pas leur comportement.

Pour les organisations sans contraintes strictes de résidence des données, une option de routage global reste disponible, donnant accès aux régions AWS commerciales dans le monde entier pour un débit maximal. Le choix entre les deux modes — géographique ou global — dépend donc directement du profil réglementaire de chaque organisation.

À lire aussi

1NVIDIA AI Blog 

NVIDIA GTC : l'Omniverse au service de l'IA physique

Lors de la conférence GTC la semaine dernière, NVIDIA a présenté plusieurs avancées majeures pour ce que l'entreprise appelle l'« ère de l'IA physique » — une phase où robots, véhicules autonomes et usines intelligentes passent de déploiements isolés à des systèmes industriels à grande échelle. Au cœur de ces annonces figurent trois nouveaux modèles de frontière : Cosmos 3 pour la modélisation du monde réel, Isaac GR00T N1.7 dédié aux compétences des robots humanoïdes, et Alpamayo 1.5 pour la conduite autonome. NVIDIA a également lancé deux blueprints open source : le Physical AI Data Factory Blueprint, destiné à produire des données d'entraînement à partir de simulations, et l'Omniverse DSX Blueprint, une architecture de référence pour créer des jumeaux numériques d'usines d'IA complètes. Des partenaires comme FieldAI, Hexagon Robotics, Skild AI et Teradyne Robotics utilisent déjà ces outils, tandis que Microsoft Azure et Nebius sont les premiers clouds à proposer le blueprint en mode clé en main. L'enjeu central de ces annonces est de résoudre un problème structurel de l'IA physique : les données réelles ne suffisent plus. Le monde réel est imprévisible, les cas limites sont innombrables, et les pipelines de collecte restent fragmentés. NVIDIA positionne donc la puissance de calcul elle-même comme une fabrique de données — transformant des scènes simulées en datasets massifs, diversifiés et hautement qualifiés. Pour les développeurs de robots et de véhicules autonomes, cela signifie pouvoir entraîner des modèles sur des millions de situations synthétiques sans dépendre d'une collecte terrain coûteuse. Parallèlement, l'Omniverse DSX Blueprint permet aux opérateurs d'usines d'IA de simuler thermiques, réseaux électriques et charges réseau avant même d'installer le premier serveur — réduisant les délais et les dépassements de budget sur des infrastructures qui coûtent des centaines de millions de dollars. Ces développements s'inscrivent dans une stratégie plus large de NVIDIA pour imposer son écosystème comme couche universelle de l'IA industrielle. Le format OpenUSD — langage de description de scènes 3D initialement développé par Pixar — joue un rôle clé en permettant de convertir des fichiers CAO d'ingénierie en environnements de simulation directement exploitables. Des frameworks open source comme OpenClaw viennent compléter la pile en orchestrant des agents autonomes capables de gérer des workflows complexes sur des machines dédiées. Avec l'intégration de partenaires cloud majeurs et d'une dizaine d'acteurs industriels, NVIDIA consolide une position de plateforme incontournable à un moment où la compétition pour contrôler l'infrastructure de l'IA physique — robots, voitures, usines — s'intensifie face à des concurrents comme Google DeepMind, Boston Dynamics et les constructeurs automobiles investissant massivement dans leurs propres systèmes embarqués.

UELes industriels et startups européens en robotique ou véhicules autonomes peuvent accéder via Microsoft Azure aux blueprints open source NVIDIA pour entraîner des modèles sur données synthétiques, réduisant leur dépendance coûteuse à la collecte terrain.

InfrastructureOpinion
1 source
2InfoQ AI 

Green IT : comment réduire l'impact environnemental de l'IA

L'intelligence artificielle représente un défi croissant pour l'informatique durable : chaque requête adressée à un modèle d'IA consomme une quantité considérable d'énergie, les puces GPU ont une durée de vie de seulement deux à trois ans, et ces coûts environnementaux restent largement invisibles pour les utilisateurs finaux. C'est le constat dressé par Ludi Akue lors de sa conférence intitulée "What I Wish I Knew When I Started with Green IT", où elle a aussi pointé les lacunes des cadres réglementaires existants, notamment l'AI Act européen, insuffisant en matière d'application concrète. Face à ces constats, Akue plaide pour intégrer la durabilité dès la conception des systèmes d'IA, en en faisant une contrainte de design à part entière plutôt qu'une considération secondaire. Elle met en avant des techniques comme la compression de modèles, la quantification — qui réduit la précision numérique des calculs pour diminuer la consommation — et le développement de nouvelles architectures plus sobres. Ces approches permettraient de réduire significativement l'empreinte énergétique sans sacrifier les performances. L'IA générative a explosé en quelques années, entraînant une demande massive en infrastructure de calcul et une course aux modèles toujours plus grands, dont les impacts environnementaux sont rarement mesurés de manière transparente. Alors que les datacenters consomment une part croissante de l'électricité mondiale, la question de la régulation et de la responsabilité des entreprises tech devient urgente. Le débat autour du Green IT appliqué à l'IA s'intensifie dans les cercles professionnels, avec des voix comme celle d'Akue qui tentent de traduire les principes de sobriété numérique en pratiques d'ingénierie concrètes.

UEL'AI Act européen est explicitement pointé comme insuffisant sur les obligations environnementales, laissant un vide réglementaire qui affecte les entreprises et décideurs en France et dans l'UE.

InfrastructureOpinion
1 source
3Frandroid 

136 cœurs, 3 nm… Arm dévoile une première puce bien à lui, et elle dépote

Arm, connu jusqu'ici comme vendeur de propriété intellectuelle pour ses architectures de puces, franchit un cap inédit en lançant son propre processeur physique. Fabriquée en partenariat avec Meta, cette puce embarque 136 cœurs et une gravure en 3 nm, la plaçant d'emblée dans le haut de gamme des semi-conducteurs actuels. Cette entrée en matière marque un tournant stratégique pour Arm, qui sort de son rôle de fournisseur de licences pour devenir acteur du matériel. La puce est conçue spécifiquement pour l'IA agentique, un segment en pleine explosion où la puissance de calcul et l'efficacité énergétique sont décisives. Le partenariat avec Meta n'est pas anodin : le géant américain investit massivement dans ses propres infrastructures d'IA pour réduire sa dépendance aux fournisseurs externes comme Nvidia ou Qualcomm.

UELe pivot d'Arm vers le hardware souverain représente un signal fort pour l'industrie des semi-conducteurs, alors que l'Europe cherche à renforcer sa propre capacité de production via le Chips Act européen.

InfrastructureActu
1 source
4The Verge AI 

Le premier CPU signé Arm va équiper les datacenters IA de Meta plus tard cette année

Arm a dévoilé son tout premier processeur maison, l'Arm AGI CPU, conçu pour l'inférence IA dans les datacenters. Meta en est le premier client et co-développeur, prévoyant de collaborer sur "plusieurs générations" de ces CPU aux côtés de matériel Nvidia et AMD. Ce lancement marque un tournant historique pour Arm, qui s'était jusqu'ici limité à la vente de licences de ses architectures.

InfrastructureActu
1 source