Aller au contenu principal
ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G
InfrastructureZDNET FRà l'instant

ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G

1 source couvre ce sujet·Source originale ↗·

L'Office européen des brevets (OEB) a enregistré en 2025 un record historique avec plus de 200 000 demandes de brevets déposées sur le continent, une première dans son histoire. Cette hausse, portée notamment par les secteurs de l'intelligence artificielle et de l'informatique quantique, traduit une dynamique d'innovation sans précédent en Europe. Les dépôts liés à l'IA ont progressé à un rythme particulièrement soutenu, reflétant la course mondiale aux technologies d'apprentissage automatique et de traitement du langage naturel.

Ce chiffre symbolique dépasse la simple statistique : il signale un repositionnement stratégique de l'Europe dans la compétition technologique mondiale, longtemps dominée par les États-Unis et la Chine. Sur le terrain de la 6G et des semi-conducteurs, les inventeurs européens affichent une progression inattendue, deux domaines considérés comme critiques pour la souveraineté numérique et industrielle des prochaines décennies. Ces brevets constituent un actif économique direct, ouvrant la voie à des licences, des partenariats et une capacité de négociation renforcée face aux géants américains et asiatiques.

Cette accélération s'inscrit dans le sillage des politiques industrielles engagées par l'Union européenne, notamment le Chips Act européen et les investissements massifs dans la recherche fondamentale via Horizon Europe. La montée en puissance de la 6G survient alors que les standards de la prochaine génération de réseaux mobiles sont encore en cours de définition, offrant à l'Europe une fenêtre d'opportunité pour peser sur les normes internationales avant que le marché ne soit verrouillé par quelques acteurs dominants.

Impact France/UE

L'Europe améliore concrètement sa capacité de négociation sur les standards 6G et les licences de semi-conducteurs, réduisant sa dépendance technologique face aux États-Unis et à la Chine.

À lire aussi

USA : les chantiers de datacenters butent sur un double mur énergétique
1Next INpact 

USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters prévus pour 2026 aux États-Unis accuseront des retards significatifs, selon une enquête de Bloomberg publiée le 1er avril 2026. Le frein principal n'est pas, comme on pourrait le supposer, la pénurie de puces IA ou de mémoire vive, mais bien un goulot d'étranglement à l'étage inférieur : les équipements électriques indispensables à l'alimentation de ces infrastructures, transformateurs, turbines, systèmes de distribution haute tension. Ces composants représentent moins de 10 % du coût total d'un datacenter, mais leur absence suffit à bloquer l'ensemble d'un chantier. La demande est colossale : selon une analyse de Bridgewater Associates de fin février 2026, Google, Amazon, Meta et Microsoft ont planifié à eux seuls 650 milliards de dollars de dépenses d'investissement en infrastructures. À cela s'ajoutent des acteurs comme Oracle, Equinix ou CoreWeave, qui construisent leurs propres centres de données en parallèle. Ce double mur, énergétique d'un côté, industriel de l'autre, crée une situation paradoxale où des centaines de milliards de dollars sont engagés mais ne peuvent se concrétiser faute de câbles, de transformateurs et de turbines disponibles en quantité suffisante. Pour les entreprises clientes comme OpenAI ou Anthropic, dont les besoins de calcul explosent, ces retards de livraison se traduisent directement par des contraintes de capacité. Pour les régions concernées, le problème est aussi structurel : plusieurs zones du territoire américain disposent d'un réseau électrique insuffisamment dimensionné pour absorber de telles charges. Meta a d'ores et déjà réservé 6,6 gigawatts d'énergie nucléaire dont les réacteurs ne seront pas opérationnels avant 2035, signe que les géants tech anticipent une pénurie durable. Face à ces contraintes, les grandes entreprises technologiques cherchent à devenir leurs propres producteurs d'énergie, contournant ainsi les délais de raccordement au réseau public. L'exemple le plus radical est celui de xAI, la société d'Elon Musk, qui a levé 20 milliards de dollars en partie pour financer l'achat de cinq turbines à gaz représentant 2 gigawatts de puissance cumulée, en complément d'installations déjà existantes dont les niveaux d'émission dépassent la réglementation locale. Ce mouvement de verticalisation énergétique illustre une tendance de fond : la course à l'infrastructure IA est désormais autant une question d'approvisionnement électrique que de performance logicielle. Le cabinet Sightline Climate, dont Bloomberg s'appuie sur les données chiffrées, documente une accumulation de retards qui révèle les limites réelles de plans d'investissement présentés comme historiques mais dont l'exécution se heurte à la physique des réseaux et aux délais de l'industrie lourde.

UEL'Europe fait face aux mêmes contraintes de réseau électrique et de délais d'approvisionnement en équipements lourds, risquant de ralentir les projets de datacenters européens pourtant essentiels à la souveraineté numérique de l'UE.

InfrastructureOpinion
1 source
Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier
2VentureBeat AI 

Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier

Amazon Web Services a lancé S3 Files, une nouvelle fonctionnalité qui permet de monter directement un bucket S3 dans l'environnement local d'un agent IA ou d'un développeur, comme s'il s'agissait d'un répertoire ordinaire. Disponible dès maintenant dans la plupart des régions AWS, cette solution repose sur la technologie Elastic File System (EFS) d'Amazon, connectée directement à S3 pour offrir une sémantique de fichiers complète et native. Aucune migration de données n'est nécessaire : les fichiers restent dans S3, accessibles simultanément via l'API objet classique et via le système de fichiers monté. Andy Warfield, vice-président et ingénieur distingué chez AWS, a expliqué à VentureBeat que cette approche a produit "une accélération considérable" pour des outils comme Kiro et Claude Code lors de tests internes. Le problème que S3 Files résout est fondamental pour les pipelines d'IA agentique. Les agents IA fonctionnent naturellement avec des chemins de fichiers et des outils de navigation de répertoires, mais l'essentiel des données d'entreprise réside dans des systèmes de stockage objet comme S3, accessibles uniquement via des appels API. Jusqu'ici, les équipes devaient télécharger les données localement avant que l'agent puisse les traiter, ce qui créait un problème critique de persistance d'état : lorsque l'agent compressait sa fenêtre de contexte, il "oubliait" ce qu'il avait déjà téléchargé, forçant l'utilisateur à répéter les instructions. Dans des pipelines multi-agents, où plusieurs agents doivent accéder simultanément aux mêmes données, la situation devenait ingérable. Avec S3 Files, un développeur peut simplement indiquer le chemin d'un répertoire de logs, et l'agent y accède directement sans étape intermédiaire. AWS annonce que des milliers de ressources de calcul peuvent se connecter simultanément à un même système de fichiers S3. Les tentatives précédentes de combler le fossé entre stockage objet et système de fichiers reposaient sur des couches logicielles dites FUSE (Filesystems in USErspace), comme Mount Point d'AWS, gcsfuse de Google ou blobfuse2 de Microsoft. Ces outils simulaient un système de fichiers en surface, mais butaient sur des limitations profondes : S3 ne supporte pas le déplacement atomique d'objets et ne possède pas de répertoires au sens strict. Ces pilotes bricolaient des métadonnées supplémentaires dans les buckets, cassant la vue API objet, ou refusaient les opérations fichier que le stockage ne pouvait pas exécuter. S3 Files rompt avec cette approche en intégrant directement EFS à S3, sans compromis entre les deux interfaces. Cette évolution s'inscrit dans la course des grands fournisseurs cloud à rendre leurs infrastructures compatibles avec les nouveaux usages de l'IA agentique, où la fluidité d'accès aux données devient un avantage concurrentiel direct.

UEDisponible dès maintenant dans la plupart des régions AWS, cette fonctionnalité est accessible aux développeurs et entreprises européens utilisant S3 pour leurs pipelines d'IA agentique.

InfrastructureActu
1 source
L’alliance inattendue : quand les batteries géantes débloquent la surpuissance de l’intelligence artificielle
3Frandroid 

L’alliance inattendue : quand les batteries géantes débloquent la surpuissance de l’intelligence artificielle

Les grandes installations de stockage par batteries, jusqu'ici connues pour acheter de l'électricité lors des creux tarifaires et la revendre aux heures de pointe, s'ouvrent à une nouvelle activité : alimenter directement les centres de données consacrés à l'intelligence artificielle. Ce modèle, encore émergent, consiste à brancher des batteries industrielles en amont des datacenters pour lisser leur consommation électrique, réduire les pics de demande sur le réseau et garantir une alimentation stable même lorsque l'approvisionnement classique vacille. L'enjeu est considérable pour l'industrie de l'IA, dont les besoins énergétiques explosent. Les grands modèles d'entraînement et d'inférence mobilisent des milliers de GPU en continu, générant des appels de puissance brutaux difficiles à absorber pour les gestionnaires de réseau. En s'intercalant entre le réseau électrique et les serveurs, les batteries permettent aux opérateurs de datacenters de sécuriser leur alimentation, d'éviter des pénalités de dépassement de puissance souscrite et, surtout, de s'implanter dans des zones où la capacité réseau est insuffisante pour ouvrir un datacenter classique. Cette convergence survient alors que les géants du cloud et les startups d'IA se livrent une course mondiale aux infrastructures de calcul, tandis que les réseaux électriques peinent à suivre le rythme. Des développeurs de projets de stockage, notamment aux États-Unis et au Royaume-Uni, explorent déjà des contrats directs avec des opérateurs comme Microsoft, Google ou des acteurs spécialisés en IA. La question reste celle de la rentabilité : combiner arbitrage tarifaire et fourniture de puissance garantie à un datacenter pourrait transformer le modèle économique du stockage stationnaire, longtemps dépendant des seules subventions et des marchés de capacité.

UEL'Europe, confrontée aux mêmes tensions sur ses réseaux électriques face à l'explosion des besoins en datacenters IA, pourrait adopter ce modèle hybride batteries-datacenter pour contourner ses propres contraintes de capacité réseau.

InfrastructureOpinion
1 source
GitHub enregistre une hausse de trafic et des pannes liees a l'afflux d'agents IA sur la plateforme
4The Information AI 

GitHub enregistre une hausse de trafic et des pannes liees a l'afflux d'agents IA sur la plateforme

GitHub, la plateforme de dépôts de code appartenant à Microsoft, enregistre une hausse spectaculaire de son trafic sous l'effet de l'automatisation pilotée par des agents d'intelligence artificielle. Selon Kyle Daigle, directeur des opérations de GitHub, cette vague d'activité générée par des systèmes automatisés provoque des pics de charge inédits sur les serveurs de la plateforme, allant jusqu'à causer des interruptions de service. Les développeurs utilisent désormais des agents IA capables de produire des volumes de code bien supérieurs à ce qu'un humain pourrait écrire seul. Cette dynamique transforme en profondeur les habitudes de développement logiciel. Des entreprises comme Meta organisent des concours internes appelés "tokenmaxxing", où les ingénieurs s'affrontent pour maximiser la consommation de tokens IA, signe que la productivité se mesure désormais à l'aune de la capacité à piloter ces outils automatisés. Pour GitHub, cette tendance représente à la fois une opportunité commerciale majeure et un défi d'infrastructure critique : la plateforme doit absorber un trafic d'une nature radicalement différente, continu et massif, là où les humains travaillent de façon discontinue. Cette évolution s'inscrit dans un contexte plus large d'industrialisation du développement logiciel par l'IA. GitHub, qui héberge des centaines de millions de dépôts, est devenu un point de passage obligé pour les workflows d'agents autonomes qui clonent, modifient et poussent du code en boucle. La question de la résilience des infrastructures centrales du développement logiciel mondial devient ainsi un enjeu stratégique, au moment où Microsoft investit massivement dans l'intégration de Copilot et d'outils IA au sein de l'écosystème GitHub.

UELes développeurs et entreprises européennes utilisant GitHub sont exposés aux risques de pannes liées à la surcharge par agents IA, ce qui soulève des questions de dépendance à une infrastructure critique américaine.

InfrastructureActu
1 source