Aller au contenu principal
Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC
InfrastructureLe Big Data2h

Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC

Résumé IASource uniqueImpact UE
Source originale ↗·

Intel a annoncé le 4 mai 2026 deux nominations importantes à sa direction. Alex Katouzian, ancien vice-président exécutif de Qualcomm où il dirigeait depuis des années les activités mobiles, informatiques et de réalité étendue, rejoint Intel comme vice-président exécutif et directeur général du nouveau groupe Client Computing & Physical AI. Il rapportera directement au PDG Lip-Bu Tan. Simultaneously, Pushkar Ranade est confirmé au poste de directeur technique permanent, avec autorité sur des chantiers prospectifs aussi variés que l'informatique quantique, les technologies neuromorphiques et la photonique. Les deux hommes prennent leurs fonctions immédiatement, selon l'annonce officielle d'Intel publiée sur X le jour même.

Ces nominations traduisent un repositionnement stratégique majeur pour Intel, qui cherche à redéfinir son activité PC autour de l'intelligence artificielle embarquée. Le périmètre du groupe que dirigera Katouzian va bien au-delà du PC traditionnel : il englobe la robotique, les machines autonomes et les systèmes embarqués, des marchés en forte croissance où l'IA locale devient un avantage décisif. L'objectif affiché est de transformer le PC en plateforme intelligente capable de traiter l'IA sans dépendre du cloud. Pour les fabricants de matériel, les développeurs et les entreprises industrielles, cela pourrait accélérer l'intégration de capacités IA directement dans les appareils, avec Intel comme fournisseur de puces central face à des concurrents de plus en plus agressifs.

Intel traverse depuis plusieurs années une période difficile, pris en étau entre Nvidia qui domine le marché des GPU pour l'entraînement et l'inférence IA, et Qualcomm qui grignote sa part historique sur les PC avec ses puces Snapdragon X Elite. Recruter Katouzian, figure reconnue de l'écosystème Qualcomm qui a contribué à structurer le marché des smartphones et des PC connectés, est un signal offensif : Intel ne se contente plus de défendre ses positions, il vise à attaquer sur le terrain même de son ancien rival. Lip-Bu Tan, arrivé à la tête du groupe en 2025 avec un mandat de redressement, construit ainsi une équipe de direction capable de relier les produits d'aujourd'hui aux ruptures technologiques de demain. La prochaine échéance concrète sera la gamme de puces PC prévue pour 2026-2027, sur laquelle ces deux nominations auront une influence directe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18
1Frandroid 

Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18

Intel a dévoilé une nouvelle technologie de compression neuronale baptisée TSNC (Texture Space Neural Compression), capable de réduire la taille des textures de jeux vidéo jusqu'à un facteur 18. Concrètement, un jeu qui occupe aujourd'hui 100 Go sur votre SSD pourrait n'en réclamer que quelques gigaoctets de données textures, tandis que la mémoire vidéo nécessaire au rendu en temps réel serait drastiquement allégée. La technologie repose sur des réseaux de neurones entraînés à compresser puis reconstruire les textures à la volée, à la manière d'un codec vidéo mais appliqué aux surfaces 3D. L'enjeu est considérable pour les joueurs PC, confrontés à une inflation galopante des tailles de jeux : certains titres récents dépassent les 150 à 200 Go, et les cartes graphiques milieu de gamme peinent à suivre avec leurs 8 à 12 Go de VRAM. Une compression neuronale efficace permettrait de démocratiser l'accès aux jeux les plus exigeants sans forcer les utilisateurs à investir dans du matériel haut de gamme, et soulagerait les SSD qui atteignent souvent leurs limites de capacité. Cette annonce s'inscrit dans une course technologique plus large entre les fabricants de GPU : Nvidia propose déjà des solutions similaires avec ses technologies de compression basées sur l'IA, et AMD travaille sur des approches comparables. Intel, dont l'arc GPU cherche encore à s'imposer sur le marché, mise sur le TSNC comme argument différenciant. La prochaine étape sera l'adoption par les studios de développement, qui devront intégrer ces outils dans leurs pipelines de création pour que la technologie tienne réellement ses promesses en conditions réelles.

InfrastructureActu
1 source
Google et AWS répartissent la pile des agents IA entre contrôle et exécution
2VentureBeat AI 

Google et AWS répartissent la pile des agents IA entre contrôle et exécution

Google et Amazon Web Services viennent de redéfinir leurs approches respectives pour orchestrer les agents IA d'entreprise, révélant une fracture profonde dans la façon de concevoir l'infrastructure agentique. Google a lancé une nouvelle version de Gemini Enterprise, regroupant sous une même bannière sa plateforme Gemini Enterprise et son application éponyme, tout en rebaptisant Vertex AI en Gemini Enterprise Platform. De son côté, AWS a enrichi Bedrock AgentCore d'un système de harness, un dispositif de configuration automatique alimenté par Strands Agents, son framework open source. Ce harness permet aux équipes de définir ce que l'agent doit faire, quel modèle utiliser et quels outils appeler, le reste étant pris en charge automatiquement. Dans le même temps, Anthropic a dévoilé ses Claude Managed Agents et OpenAI a renforcé son Agents SDK, confirmant que l'ensemble de l'industrie cherche simultanément à résoudre le même problème : comment gérer des agents IA qui tournent durablement en production. L'enjeu dépasse la simple question de l'outillage développeur. À mesure que les agents passent de courtes tâches ponctuelles à des workflows autonomes de longue durée, un nouveau type de défaillance émerge : la dérive d'état (state drift). Un agent qui fonctionne en continu accumule de la mémoire, des réponses et un contexte évolutif. Avec le temps, ce contexte devient obsolète : les sources de données changent, les outils renvoient des réponses contradictoires, et l'agent perd en fiabilité sans que personne ne s'en rende forcément compte. C'est ce problème systémique que Google et AWS cherchent à prévenir, par deux chemins opposés. Google mise sur un plan de contrôle à la manière de Kubernetes, centré sur la gouvernance et la visibilité. AWS privilégie la vitesse de déploiement et la simplification de la configuration, en déléguant la coordination à la couche d'exécution. Cette divergence illustre une transformation plus profonde de la pile IA, qui se stratifie désormais en couches spécialisées. Google positionne Gemini Enterprise comme une porte d'entrée unifiée vers l'ensemble de ses systèmes IA, avec des outils de sécurité et de gouvernance inclus dans l'abonnement, selon Maryam Gholami, directrice senior produit chez Google. AWS, Anthropic et OpenAI s'orientent davantage vers la vélocité et la flexibilité d'exécution. La question de savoir quelle approche s'imposera reste ouverte : Gholami elle-même reconnaît que ce sont les clients qui dicteront les usages des agents longue durée, un domaine où les bonnes pratiques restent encore à définir. Le vrai test viendra lorsque les entreprises feront tourner ces systèmes en conditions réelles, avec des agents qui devront remonter de l'information, demander des validations humaines, et résister à la dégradation progressive de leur contexte.

UELes entreprises européennes qui déploient des agents IA en production sur Google Cloud ou AWS devront arbitrer entre les deux approches d'orchestration pour leurs workflows agentiques durables.

InfrastructureOpinion
1 source
L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises
3VentureBeat AI 

L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises

Les réseaux radio à intelligence artificielle, connus sous l'acronyme AI-RAN, s'imposent progressivement comme une refonte profonde de l'infrastructure sans fil en entreprise. Lors d'une conversation avec VentureBeat, Chris Christou, vice-président senior chez Booz Allen, et Shervin Gerami, directeur général au Cerberus Operations Supply Chain Fund, ont détaillé les contours de cette transformation. Christou résume l'enjeu : l'AI-RAN permet d'étendre les promesses de la 5G, et demain de la 6G, en hébergeant directement de l'inférence IA au niveau de la périphérie du réseau, pour des cas d'usage comme la fabrication intelligente ou les entrepôts autonomes. Gerami va plus loin : selon lui, l'AI-RAN n'est pas une mise à niveau réseau, c'est un système d'exploitation pour les industries physiques. Le concept se décline en trois niveaux distincts : l'IA pour le RAN (optimisation interne du réseau), l'IA sur le RAN (exécution de charges de travail IA comme la vision par ordinateur ou l'inférence LLM locale), et enfin l'IA et le RAN conjointement, où applications et infrastructure radio sont conçues ensemble comme un système distribué coordonné. L'impact concret de cette convergence est considérable pour les secteurs industriels, logistiques et de santé. Le principe ISAC (Integrated Sensing and Communications) transforme le réseau lui-même en capteur, capable de détecter des mouvements, de suivre des actifs avec une précision inférieure au mètre dans des usines ou des hôpitaux, d'identifier des intrusions périmètriques ou d'optimiser la consommation énergétique de bâtiments intelligents. Là où les entreprises gèrent aujourd'hui des dizaines de systèmes distincts -- caméras, radars, capteurs de mouvement, traceurs d'actifs -- l'ISAC pourrait consolider ces capacités nativement dans le réseau, réduisant les coûts de maintenance, d'intégration et de gestion des fournisseurs. Pour les applications critiques comme la robotique en temps réel, l'inspection qualité instantanée ou la maintenance prédictive, la réduction de latence qu'offre l'IA en périphérie représente souvent la différence entre un système opérationnel et un système inutilisable. Cette dynamique s'inscrit dans un mouvement plus large de convergence entre cloud computing et infrastructure physique. Pendant des décennies, l'innovation applicative a été l'apanage du cloud ; l'AI-RAN ouvre la même logique d'écosystème développeur au niveau du réseau radio. Les acteurs positionnés sur ce marché -- cabinets de conseil comme Booz Allen, fonds d'investissement industriels comme Cerberus -- anticipent que la valeur ne réside plus dans le transport passif de données, mais dans la capacité à orchestrer des opérations autonomes directement depuis l'infrastructure réseau. La transition vers la 6G, attendue dans la seconde moitié de la décennie, devrait accélérer cette convergence, en faisant du réseau non plus un tuyau, mais une couche fondamentale de l'économie de l'IA physique.

UEL'AI-RAN concerne directement les secteurs industriels européens (fabrication, logistique, santé) en ouvrant la voie à une inférence IA décentralisée sur les réseaux 5G/6G, un enjeu stratégique pour la compétitivité industrielle de l'UE.

InfrastructureOpinion
1 source
Minisforum : comment l’expert du mini-PC est devenu l’architecte de l’IA locale
4Le Big Data 

Minisforum : comment l’expert du mini-PC est devenu l’architecte de l’IA locale

Fondée en 2012 à Shenzhen sous le nom BESTSTAR TECH, la société qui allait devenir Minisforum a d'abord opéré dans l'ombre comme fabricant OEM, produisant des mini-PC pour des marques tierces comme Kodlix. Son virage grand public intervient en 2019, date à laquelle elle lance sa propre marque et affronte directement la concurrence mondiale. Depuis, l'entreprise a noué des partenariats stratégiques avec Intel et AMD pour accéder aux puces les plus récentes, et elle a progressivement repoussé les limites du format compact. Aujourd'hui, son catalogue s'articule autour de machines capables d'embarquer des processeurs de bureau dans des boîtiers de quelques litres, avec des connectiques haut de gamme comme l'OCuLink et l'USB4 v2. Le modèle phare de cette trajectoire est la MS-02 Ultra, distinguée par une médaille d'or aux CES 2026 Innovation Awards : ce châssis de seulement 4,8 litres accueille un processeur Core Ultra 9 285HX, jusqu'à 256 Go de DDR5 ECC, un port PCIe 5.0 x16 compatible avec des GPU dual-slot comme la RTX 5070, et un système de refroidissement à six caloducs pour absorber un TDP total de 240 W sans aucun bridage thermique. Cette montée en puissance n'est pas anodine. Elle répond à une demande croissante de professionnels et d'indépendants qui souhaitent faire tourner des charges de travail lourdes, virtualisation sous Proxmox, rendu 3D sous Blender, serveurs d'entreprise ou création vidéo en 16K, sans recourir à des tours encombrantes ni à des infrastructures cloud coûteuses. Avec plus de quatre millions d'utilisateurs revendiqués, Minisforum s'est imposé comme une référence dans un segment longtemps perçu comme secondaire. La station MS-02 Ultra casse définitivement le préjugé selon lequel la compacité implique un compromis sur la puissance brute. Le tournant le plus structurant reste cependant l'Edge AI. Jusqu'ici, les applications d'intelligence artificielle dépendaient de serveurs distants, ce qui entraînait des latences élevées et des risques réels pour la confidentialité des données. En 2026, les nouvelles générations de puces embarquent des NPU atteignant 86 TOPS, capables de traiter des modèles complexes en moins de 10 millisecondes directement en local, sans connexion cloud. Minisforum se positionne à l'avant-garde de cette bascule : ses appareils permettent de faire tourner des LLMs ou des pipelines d'inférence sur du matériel personnel, réduisant à la fois la dépendance aux infrastructures tierces et l'exposition des données sensibles. Ce mouvement vers l'IA embarquée redéfinit ce qu'un particulier ou une PME peut accomplir avec une machine tenant sur un bureau.

UEL'essor de l'IA locale embarquée sur mini-PC répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux PME et indépendants européens de traiter des données sensibles sans dépendre du cloud américain.

InfrastructureOpinion
1 source