Aller au contenu principal

Dossier Souveraineté IA

135 articles

La bataille pour la souveraineté IA : Mistral, OVHcloud Dragon LLM, infrastructure souveraine européenne et alternatives au cloud américain.

7 fois moins cher que Claude Opus 4.7 : la Chine dégaine DeepSeek-V4, un modèle open source conçu pour vous détourner des États-Unis
1Numerama LLMsOpinion

7 fois moins cher que Claude Opus 4.7 : la Chine dégaine DeepSeek-V4, un modèle open source conçu pour vous détourner des États-Unis

DeepSeek vient de publier DeepSeek-V4-Preview, une famille de deux modèles open weight conçus pour rivaliser avec les meilleurs systèmes d'IA propriétaires américains. Le laboratoire chinois annonce un coût d'utilisation sept fois inférieur à celui de Claude Opus 4.7 d'Anthropic, ce qui en fait l'un des modèles les plus compétitifs du marché en termes de rapport performance-prix. Les poids sont accessibles librement, permettant à n'importe quelle entreprise ou développeur de les déployer sans dépendre des API américaines. L'impact est immédiat pour les équipes techniques et les entreprises qui cherchent à réduire leurs coûts d'inférence. Un modèle open weight de ce niveau de performance signifie qu'on peut l'héberger soi-même, adapter les poids, et s'affranchir des conditions d'utilisation imposées par OpenAI, Anthropic ou Google. Pour les marchés émergents et les entreprises européennes soucieuses de souveraineté numérique, c'est une alternative concrète aux géants américains. Ce lancement s'inscrit dans la continuité directe du coup de tonnerre de janvier 2025, lorsque DeepSeek-R1 avait provoqué un effondrement boursier des valeurs tech américaines en démontrant qu'on pouvait former des modèles de pointe à moindre coût. La Maison-Blanche surveille désormais de près les pratiques des laboratoires chinois, notamment sur les questions d'accès aux puces et de transfert technologique. Avec V4, DeepSeek confirme une stratégie délibérée : rendre l'open source suffisamment attractif pour décrocher les utilisateurs mondiaux des écosystèmes américains.

UELes entreprises européennes soucieuses de souveraineté numérique disposent d'une alternative open weight auto-hébergeable aux API américaines, réduisant leur dépendance aux conditions d'utilisation imposées par OpenAI, Anthropic ou Google.

1 source
Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp
2FrenchWeb 

Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp

La Plateforme des données de santé a officiellement sélectionné Scaleway, filiale du groupe Iliad, pour héberger ses infrastructures, mettant fin à des années de dépendance vis-à-vis de Microsoft Azure. Ce choix, issu d'un appel d'offres rigoureux, éloigne les données médicales de millions de Français du spectre du Cloud Act américain et affirme un virage vers la souveraineté numérique. En parallèle, la startup UNIVITY annonce une levée de 27 millions d'euros pour déployer une infrastructure 5G spatiale combinant satellites et réseaux terrestres. Enfin, Devendra Chaplot, chercheur passé par Mistral AI, rejoint xAI, la société d'intelligence artificielle d'Elon Musk. Ces trois actualités convergent autour d'un même enjeu : la souveraineté technologique européenne. Le choix de Scaleway par le Health Data Hub répond aux alertes répétées de la CNIL sur les risques d'exposition des données de santé aux injonctions extraterritoriales américaines, et constitue un signal fort pour les opérateurs de cloud souverain français. L'investissement d'UNIVITY positionne l'Europe sur le marché de la connectivité satellitaire face à Starlink, tandis que le départ de Chaplot vers xAI illustre la capacité des mastodontes américains à capter les talents IA européens. La controverse autour du Health Data Hub remonte à 2020, quand le contrat Microsoft avait déclenché une vague de critiques de juristes et d'associations de défense des droits numériques. Scaleway, certifié hébergeur de données de santé (HDS), était depuis le candidat naturel à ce contrat stratégique. Plus largement, ces trois événements dessinent un écosystème européen en tension entre ambition souveraine et attraction irrésistible des géants américains de la tech.

UELe Health Data Hub migre de Microsoft Azure vers Scaleway (groupe Iliad), soustrayant les données médicales de millions de Français au Cloud Act américain, victoire directe pour la souveraineté numérique française et signal fort pour l'écosystème cloud souverain européen.

InfrastructureActu
1 source
NVIDIA et Google réduisent les coûts d'inférence en IA
3AI News 

NVIDIA et Google réduisent les coûts d'inférence en IA

Lors de la conférence Google Cloud Next, Google et NVIDIA ont dévoilé une nouvelle génération d'infrastructure destinée à réduire drastiquement le coût de l'inférence IA à grande échelle. Les deux entreprises ont présenté les instances A5X bare-metal, reposant sur les systèmes rack NVIDIA Vera Rubin NVL72. Cette architecture promet une réduction jusqu'à dix fois du coût d'inférence par token par rapport aux générations précédentes, tout en multipliant par dix le débit de tokens par mégawatt. Pour atteindre ces performances, les instances A5X combinent les SuperNICs NVIDIA ConnectX-9 avec la technologie réseau Google Virgo, permettant de connecter jusqu'à 80 000 GPU NVIDIA Rubin au sein d'un même site, et jusqu'à 960 000 GPU dans un déploiement multi-sites. Mark Lohmeyer, VP et directeur général de l'infrastructure IA chez Google Cloud, a résumé l'enjeu : "La prochaine décennie de l'IA sera façonnée par la capacité des entreprises à faire tourner leurs charges de travail les plus exigeantes sur une infrastructure vraiment intégrée et optimisée pour l'IA." Ces annonces ont un impact direct sur les secteurs fortement réglementés, comme la finance et la santé, qui butent régulièrement sur des contraintes de souveraineté des données. Google et NVIDIA y répondent avec plusieurs initiatives concrètes : les modèles Gemini fonctionnant sur GPU NVIDIA Blackwell et Blackwell Ultra sont désormais disponibles en préversion sur Google Distributed Cloud, ce qui permet aux organisations de garder les modèles frontier entièrement dans leur environnement contrôlé, au plus près de leurs données sensibles. La sécurité est assurée par NVIDIA Confidential Computing, un protocole de chiffrement matériel qui protège les données d'entraînement et les prompts y compris vis-à-vis des opérateurs cloud eux-mêmes. Pour les environnements cloud public multi-tenant, des VM Confidential G4 équipées de GPU NVIDIA RTX PRO 6000 Blackwell sont également introduites en préversion, marquant la première offre de confidential computing cloud pour des GPU Blackwell. Cette collaboration s'inscrit dans une course plus large à l'optimisation de l'inférence, alors que les coûts opérationnels de l'IA générative restent un frein majeur à son adoption industrielle. Au-delà du matériel, le partenariat couvre aussi la couche logicielle : NVIDIA Nemotron 3 Super est désormais disponible sur la Gemini Enterprise Agent Platform, permettant aux développeurs de construire des systèmes agentiques complexes capables de raisonner, planifier et agir en chaîne. L'ensemble de la plateforme NVIDIA sur Google Cloud est optimisé pour les familles de modèles Gemini et Gemma. Avec des clusters dépassant le million de GPU et une ambition affichée de simplifier le déploiement d'IA souveraine, Google et NVIDIA repositionnent l'infrastructure cloud non plus comme un simple fournisseur de puissance de calcul, mais comme un levier stratégique pour les entreprises qui veulent industrialiser l'IA sans sacrifier performance, coût ou conformité réglementaire.

UELes entreprises européennes des secteurs réglementés (finance, santé) disposent désormais d'options d'infrastructure IA souveraine compatibles avec les exigences RGPD, réduisant un frein concret à l'industrialisation de l'IA en Europe.

InfrastructureActu
1 source
NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents
4NVIDIA AI Blog 

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents

NVIDIA et Google Cloud ont annoncé cette semaine, lors de la conférence Google Cloud Next à Las Vegas, une nouvelle étape majeure dans leur partenariat vieux de plus de dix ans. Au cœur de l'annonce : le lancement des instances bare-metal A5X, alimentées par les systèmes rack NVIDIA Vera Rubin NVL72, qui promettent un coût d'inférence jusqu'à dix fois inférieur et un débit de tokens dix fois plus élevé par mégawatt par rapport à la génération précédente. Ces infrastructures s'appuient sur les interconnexions NVIDIA ConnectX-9 SuperNICs couplées au réseau Google Virgo de nouvelle génération, permettant de déployer des clusters allant jusqu'à 80 000 GPU Rubin sur un site unique, et jusqu'à 960 000 GPU dans une configuration multisite. Par ailleurs, Google Cloud met en préversion les modèles Gemini sur Google Distributed Cloud avec les GPU NVIDIA Blackwell et Blackwell Ultra, ainsi que des machines virtuelles confidentielles garantissant le chiffrement des données en cours d'utilisation. Des acteurs comme OpenAI et Thinking Machines Lab utilisent déjà ces infrastructures pour des charges d'inférence massives, notamment pour faire tourner ChatGPT. Ces annonces représentent un saut qualitatif significatif pour les entreprises qui cherchent à industrialiser l'IA agentique et l'IA physique, c'est-à-dire les systèmes capables d'agir de manière autonome dans des environnements réels, comme les robots ou les jumeaux numériques en usine. La réduction drastique des coûts d'inférence change concrètement l'équation économique pour les développeurs d'applications IA à grande échelle. La possibilité de déployer les modèles Gemini en environnement souverain, sur des données sensibles restant chiffrées y compris pendant leur traitement, répond à une exigence croissante des entreprises et des gouvernements en matière de conformité et de confidentialité. L'intégration de modèles ouverts NVIDIA Nemotron dans la plateforme Gemini Enterprise Agent Platform élargit également les options des équipes techniques qui souhaitent combiner modèles propriétaires et open source. Ce partenariat s'inscrit dans une compétition intense entre les grands fournisseurs de cloud pour capter les budgets d'infrastructure IA, qui se chiffrent désormais en dizaines de milliards de dollars annuellement. Google Cloud cherche à rattraper son retard sur AWS et Microsoft Azure, qui ont pris de l'avance sur l'hébergement des charges d'entraînement et d'inférence des grands modèles de langage. En s'associant étroitement à NVIDIA, dont les GPU dominent encore largement le marché de l'accélération IA, Google se positionne comme une plateforme de référence pour la prochaine vague, celle des agents autonomes et de la robotique industrielle. La feuille de route annoncée, avec la transition de Blackwell vers Vera Rubin, suggère que la cadence d'innovation s'accélère et que les entreprises devront adapter leur infrastructure régulièrement pour rester compétitives.

UELe déploiement souverain de Gemini sur Google Distributed Cloud avec chiffrement des données en cours d'utilisation répond aux exigences RGPD des entreprises européennes traitant des données sensibles.

InfrastructureOpinion
1 source
Gemini tourne désormais sur un serveur isolé du réseau, et s'efface si on coupe le courant
5VentureBeat AI 

Gemini tourne désormais sur un serveur isolé du réseau, et s'efface si on coupe le courant

Cirrascale Cloud Services a annoncé lors du Google Cloud Next 2026 à Las Vegas un accord élargi avec Google Cloud pour déployer le modèle Gemini en mode entièrement déconnecté, sur des serveurs physiques isolés d'internet. Cirrascale devient ainsi le premier fournisseur de cloud spécialisé à proposer le modèle phare de Google sous forme d'appliance privée, installée soit dans les centres de données de Cirrascale, soit directement dans les locaux du client. Le système repose sur un serveur certifié Google, fabriqué par Dell, équipé de huit GPU Nvidia et protégé par des mécanismes de calcul confidentiel. Une préversion est disponible immédiatement, avec une disponibilité générale attendue en juin ou juillet 2026. Dave Driggers, PDG de Cirrascale, a insisté sur un point clé : il s'agit du modèle Gemini complet, sans aucune restriction ni version allégée, déployé dans un environnement où les données d'entrée comme de sortie restent entièrement sous le contrôle du client. Fait notable sur le plan technique, les poids du modèle résident uniquement en mémoire volatile : dès que l'alimentation est coupée, le modèle disparaît sans laisser de trace persistante. Cette annonce répond à un problème structurel qui bloque depuis des années les secteurs régulés comme la finance, la santé, la défense et les administrations publiques. Ces organisations devaient jusqu'ici choisir entre accéder aux modèles les plus puissants via des API cloud publiques, au risque d'exposer leurs données sensibles à l'infrastructure d'un tiers, ou se contenter de modèles open source moins performants hébergés en interne. Le déploiement Cirrascale entend supprimer ce compromis. Driggers décrit l'escalade du problème de confiance : après les inquiétudes sur les données propriétaires confiées aux hyperscalers, les entreprises ont pris conscience que les prompts et les réponses générées étaient également récupérés par ces mêmes plateformes pour alimenter leurs propres systèmes, ce qui a rendu la demande de souveraineté totale incontournable. Cette évolution s'inscrit dans un mouvement plus large de migration des modèles d'IA frontier hors des centres de données des grands hyperscalers, vers les infrastructures propres des clients, ce qui représente une rupture avec la logique cloud dominante de la dernière décennie. Driggers distingue explicitement cette offre des déploiements on-premises proposés par Microsoft Azure avec les modèles OpenAI ou par AWS Outposts : dans ces cas, les modèles restent liés à l'infrastructure de leurs éditeurs. Ici, Google ne possède pas le matériel, et son modèle fonctionne en dehors de tout réseau Google. Pour le géant de Mountain View, accepter ce niveau de délégation sur son modèle le plus avancé traduit une stratégie commerciale claire : conquérir les marchés réglementés qui lui étaient jusqu'ici fermés, quitte à renoncer au contrôle direct de l'inférence.

UECe mode de déploiement air-gap répond directement aux exigences du RGPD et de l'AI Act en matière de souveraineté des données, ouvrant potentiellement Gemini aux administrations publiques, établissements de santé et institutions financières européennes soumis à des contraintes strictes de localisation et d'isolation des données.

💬 Le truc des poids uniquement en mémoire volatile, c'est la partie que je trouve la plus maligne. Parce que le blocage dans les secteurs régulés c'était pas juste "mes données sortent du réseau", c'était aussi "quelqu'un peut extraire ou copier le modèle", et là, coupe l'alimentation, ça disparaît. Google accepte de perdre le contrôle de l'inférence de son meilleur modèle pour aller chercher des marchés qui lui étaient fermés depuis des années. Ça, c'est un vrai mouvement.

InfrastructureOpinion
1 source
Le pari open source de la Chine
6MIT Technology Review 

Le pari open source de la Chine

Les laboratoires d'IA chinois ont adopté une stratégie radicalement différente de leurs rivaux américains : au lieu de monétiser leurs modèles derrière des API payantes, ils les publient en open-weight, c'est-à-dire sous forme de packages téléchargeables que n'importe quel développeur peut adapter et faire tourner sur ses propres serveurs. Ce tournant a pris une dimension mondiale en janvier 2025, lorsque DeepSeek a publié son modèle de raisonnement R1, qui a égalé les meilleures performances américaines à une fraction du coût annoncé. Dans la foulée, un véritable écosystème s'est structuré autour de ce modèle : Z.ai (anciennement Zhipu), Moonshot, Alibaba avec sa famille Qwen, et MiniMax ont tous suivi la même logique, en publiant des modèles de plus en plus capables. En août 2025, une étude menée par des chercheurs du MIT et de Hugging Face a établi que les modèles open-weight chinois représentaient 17,1 % des téléchargements mondiaux de modèles d'IA, dépassant pour la première fois la part américaine, fixée à 15,86 %. Les modèles Qwen d'Alibaba comptent aujourd'hui plus de variantes créées par des utilisateurs que ceux de Google et Meta réunis. L'impact de cette stratégie dépasse largement les benchmarks techniques. À mesure que l'enthousiasme autour de l'IA se tasse et que les entreprises passent des expérimentations aux déploiements concrets, les outils moins chers et plus personnalisables prennent l'avantage. Les modèles chinois permettent aux développeurs aux budgets limités d'expérimenter davantage, et le format open-weight leur donne la liberté d'adapter les modèles sans négocier de contrat commercial avec un acteur américain. Cette combinaison de prix bas et de liberté technique crée une adhérence forte : une fois qu'un écosystème se construit autour d'un modèle, comme l'ont montré Linux et Android, l'adoption se traduit naturellement en revenus API. Le Sud global, notamment Singapour, la Malaisie, le Kenya ou le Brésil, embrasse ouvertement ces outils, y voyant un chemin vers une souveraineté numérique. Derrière cette générosité apparente se cachent des calculs stratégiques précis. Sans accès aux puces de pointe bloquées par les contrôles à l'exportation américains, les laboratoires chinois compensent en ouvrant leurs modèles : plus les développeurs extérieurs contribuent et testent, plus vite le cycle d'amélioration s'accélère. Ce n'est pas sans tensions : en février 2026, Anthropic a accusé plusieurs laboratoires chinois de pratiques illicites de distillation, consistant à entraîner un nouveau modèle sur les sorties d'un autre. Les modèles chinois sont par ailleurs soumis aux exigences de censure du gouvernement de Pékin. Malgré ces limites, la dynamique est enclenchée : l'avenir de l'IA sera plus multipolaire que Silicon Valley ne l'anticipait, et rien ne semble pouvoir inverser cette tendance.

UELes modèles open-weight chinois offrent aux développeurs et entreprises européens une alternative concrète aux APIs américaines payantes, renforçant la souveraineté numérique de l'UE sans dépendance contractuelle envers les géants du Silicon Valley.

LLMsOpinion
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
7Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
Claude Code s'étend à toute l'organisation via Amazon Bedrock
8AWS ML Blog 

Claude Code s'étend à toute l'organisation via Amazon Bedrock

Anthropic et Amazon Web Services ont annoncé le lancement de Claude Cowork dans Amazon Bedrock, une intégration qui permet aux entreprises de déployer l'application de bureau Claude directement depuis leur infrastructure AWS. Concrètement, les utilisateurs téléchargent l'application Claude Desktop sur leur machine, puis le service informatique de l'entreprise pousse une configuration centralisée via des outils de gestion de parc comme Jamf, Microsoft Intune ou Group Policy. L'inférence est entièrement routée vers Amazon Bedrock dans les régions AWS choisies par l'organisation, sans licence par siège payée à Anthropic : la facturation est à la consommation, intégrée à l'accord AWS existant. L'application donne accès aux projets, artefacts, mémoire, import-export de fichiers, connecteurs distants et serveurs MCP. Les fonctionnalités nécessitant l'infrastructure Anthropic, onglet Chat, Computer Use, Skills Marketplace, sont exclues de cette offre. L'enjeu dépasse la seule productivité des développeurs. Claude Cowork vise à étendre l'adoption de l'IA à l'ensemble des travailleurs de la connaissance d'une organisation : chefs de produit, analystes, équipes juridiques ou RH peuvent déléguer de la recherche documentaire, de l'analyse de fichiers, de la génération de rapports, sans quitter leur environnement de travail habituel. Pour les entreprises soumises à des contraintes réglementaires strictes, l'argument central est la souveraineté des données : Amazon Bedrock ne stocke pas les prompts, fichiers, inputs ou outputs d'outils, ni les réponses du modèle, et ne les utilise pas pour entraîner des modèles fondamentaux. Les profils d'inférence régionaux, cross-régionaux ou globaux permettent de choisir le niveau de résidence des données adapté à chaque juridiction. Cette annonce s'inscrit dans une dynamique plus large de déploiement entreprise de l'IA générative, où les grands groupes cherchent à concilier puissance des modèles de pointe et exigences de conformité interne. AWS et Anthropic approfondissent ainsi un partenariat stratégique amorcé il y a plusieurs années, Amazon ayant investi plusieurs milliards de dollars dans Anthropic. Pour les organisations qui utilisent déjà Claude Code dans Bedrock pour leurs équipes techniques, la même configuration peut être réutilisée pour déployer Cowork. L'intégration avec IAM, VPC endpoints, CloudTrail et CloudWatch permet une gouvernance et une observabilité natives. La prochaine étape probable : étendre les capacités des serveurs MCP disponibles dans ce contexte géré, afin de connecter Claude aux systèmes métier internes sans compromettre l'isolation réseau.

UELes entreprises européennes soumises au RGPD peuvent déployer Claude à grande échelle via leurs régions AWS européennes, avec résidence des données garantie et sans que les prompts ou fichiers soient utilisés pour entraîner des modèles.

OutilsOutil
1 source
Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée
9Le Big Data 

Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée

Mozilla a officialisé le 16 avril 2026 le lancement de Thunderbolt, une interface d'IA conçue pour un déploiement entièrement auto-hébergé en entreprise. Développé par MZLA Technologies, la filiale responsable de Thunderbird, l'outil se positionne comme un "client d'IA souverain" capable de se connecter à des modèles existants, Claude, Codex, DeepSeek ou tout modèle open source, via des API compatibles OpenAI ou ACP. Il repose sur Haystack, un framework open source reconnu pour la construction de pipelines d'IA modulaires. Thunderbolt est disponible en applications natives sur Windows, macOS, Linux, iOS, Android et en version web, avec le code source React accessible sur GitHub. Un audit de sécurité est actuellement en cours avant une mise en production à grande échelle, et Mozilla encourage déjà les entreprises à explorer des déploiements sur site avec des licences adaptées. L'argument central de Thunderbolt est son architecture entièrement locale : les données restent sur l'infrastructure de l'entreprise, notamment via une base SQLite hors ligne, sans transit vers des services cloud externes. Le système intègre un chiffrement de bout en bout et des contrôles d'accès au niveau des appareils. Pour les organisations soumises au RGPD, aux réglementations sectorielles strictes, santé, finance, défense, ou qui manipulent des données sensibles, c'est un différenciateur décisif face aux offres de Microsoft, Google ou OpenAI qui centralisent tout. Thunderbolt prend en charge les usages devenus standards : chat, recherche, automatisation et workflows multi-appareils, ce qui limite la friction à l'adoption pour des équipes habituées aux outils IA grand public. Ce lancement s'inscrit dans une stratégie plus large que Mozilla a formulée dès novembre 2025 : "faire pour l'IA ce que nous avons fait pour le web", c'est-à-dire construire un écosystème ouvert et décentralisé face aux géants de la Big AI. Mozilla.ai, sa branche dédiée à l'IA open source, soutient en parallèle le développement d'outils et de modèles ouverts. Le pari de Mozilla est celui de l'interopérabilité contre l'enfermement propriétaire, la même philosophie qui a fondé Firefox contre Internet Explorer à l'époque. La demande pour des solutions souveraines ne cesse de croître en Europe notamment, portée par des impératifs réglementaires et une méfiance croissante envers la dépendance aux hyperscalers américains. Thunderbolt arrive donc au bon moment sur un marché B2B où la souveraineté technologique est devenue un critère d'achat à part entière, et non plus un simple argument marketing.

UEThunderbolt offre aux entreprises européennes soumises au RGPD et aux réglementations sectorielles (santé, finance, défense) une solution concrète pour déployer des workflows IA en conservant leurs données sur leur propre infrastructure, sans dépendance aux hyperscalers américains.

💬 Mozilla qui sort l'artillerie lourde sur la souveraineté IA, ça fait plaisir à voir. L'architecture tout-local avec SQLite hors ligne, l'audit sécu avant le lancement, la compatibilité OpenAI API pour brancher ses propres modèles, bon, sur le papier c'est exactement ce que les DSI européens réclamaient. Reste à voir si ça tient face aux besoins réels des grandes boîtes, parce qu'entre une démo GitHub propre et un déploiement santé à 5 000 users, il y a souvent un gouffre.

OutilsOutil
1 source
Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant
10FrenchWeb 

Sephora confie son programme de fidélité à ChatGPT : pourquoi c’est un tournant

Sephora a annoncé fin mars à Las Vegas, lors de la conférence Shoptalk Spring, un partenariat stratégique avec OpenAI pour intégrer ChatGPT au cœur de son programme de fidélité Beauty Insider. Ce qui distingue cet accord de simples expérimentations marketing : l'enseigne confie à l'IA les données de ses membres, un actif considéré comme l'un des plus précieux de l'entreprise. Sephora inaugure ainsi ce que l'industrie commence à appeler le « shopping agentique », où l'IA ne se contente plus de répondre à des questions mais agit pour le compte de l'utilisateur. Pour les quelque 34 millions de membres Beauty Insider aux États-Unis, cela signifie potentiellement une expérience d'achat entièrement personnalisée, pilotée par un assistant capable d'analyser l'historique d'achats, les préférences de marques et les tendances beauté en temps réel. L'enjeu dépasse la simple recommandation produit : en laissant une IA accéder aux données comportementales de ses clients les plus fidèles, Sephora parie que la personnalisation de masse peut devenir un avantage concurrentiel durable face à la concurrence en ligne et aux plateformes comme Amazon. Ce partenariat s'inscrit dans une vague plus large de grands distributeurs qui cherchent à monétiser leurs données first-party à l'heure où les cookies tiers disparaissent. OpenAI, de son côté, accélère son virage vers les applications commerciales après avoir sécurisé des financements massifs, et le retail de luxe constitue un terrain d'expansion stratégique. La question qui reste ouverte est celle de la gouvernance : confier des données clients sensibles à un tiers comme OpenAI soulève des interrogations sur la souveraineté des données et la conformité au RGPD pour les opérations européennes de Sephora.

UESephora, entreprise française du groupe LVMH, confie des données clients sensibles à OpenAI, ce qui soulève des questions concrètes de conformité RGPD pour ses opérations européennes.

BusinessOpinion
1 source
NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026
11NVIDIA AI Blog 

NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026

NVIDIA et ses partenaires industriels investissent Hannover Messe 2026, le salon phare de l'industrie manufacturière qui se tient du 20 au 24 avril à Hanovre, en Allemagne, pour y présenter ce qu'ils considèrent comme la prochaine révolution de la production : l'usine pilotée par l'intelligence artificielle. Au programme, des démonstrations concrètes couvrant l'informatique accélérée, la simulation physique en temps réel, les agents autonomes et les robots humanoïdes opérant en environnement industriel. Parmi les temps forts, l'annonce de l'Industrial AI Cloud, l'un des plus grands centres d'IA d'Europe, construit en Allemagne par Deutsche Telekom sur infrastructure NVIDIA. Des géants comme SAP, Siemens, ABB, Dassault Systèmes, Cadence ou encore Synopsys y participent, aux côtés d'acteurs spécialisés comme Agile Robots, Wandelbots et PhysicsX. EDAG, prestataire indépendant d'ingénierie, a par ailleurs annoncé le déploiement de sa plateforme de métavers industriel "metys" sur ce cloud souverain, ciblant l'automobile et l'ingénierie lourde. L'enjeu est considérable : l'industrie manufacturière mondiale fait face à une pression simultanée sur les cycles de conception, les coûts opérationnels et la disponibilité de main-d'œuvre qualifiée. L'IA n'est plus une option expérimentale mais un levier de compétitivité immédiat. Les jumeaux numériques à l'échelle d'une usine entière, construits sur les bibliothèques Omniverse de NVIDIA et le standard ouvert OpenUSD, permettent désormais de simuler, tester et optimiser des lignes de production en continu, sans interruption physique. ABB, par exemple, intègre ces outils dans sa suite Genix pour analyser la performance des équipements et accélérer la recherche de causes de pannes via des agents IA. Pour les ingénieurs, la simulation physique en temps réel change radicalement le processus de conception : là où des heures de calcul étaient nécessaires, des résultats apparaissent en secondes. Cette offensive de NVIDIA dans l'industrie s'inscrit dans une stratégie plus large visant à faire de l'informatique accélérée le socle de la transformation industrielle européenne. Le concept de "souveraineté numérique" est central : face aux craintes européennes de dépendance aux clouds américains, l'Industrial AI Cloud positionné en Allemagne répond à une demande politique autant qu'économique. CUDA-X, Omniverse, les modèles ouverts Nemotron et les puces NVIDIA équipent désormais les logiciels des éditeurs les plus influents du secteur, de Siemens à Dassault Systèmes, créant un écosystème interdépendant difficile à contourner. Dell, IBM, Lenovo et PNY complètent l'offre avec des systèmes accélérés déployables de la périphérie jusqu'aux datacenters. La prochaine étape, déjà visible à Hanovre, est l'intégration de robots humanoïdes dans les chaînes de production, un marché où NVIDIA entend jouer un rôle d'infrastructure aussi structurant que dans l'IA générative.

UEL'Industrial AI Cloud inauguré en Allemagne par Deutsche Telekom sur infrastructure NVIDIA, avec la participation de Dassault Systèmes et Siemens, offre aux industriels européens une infrastructure cloud souveraine pour déployer l'IA en production.

InfrastructureActu
1 source
☕️ Mozilla drague les entreprises avec un client IA open source, Thunderbolt
12Next INpact 

☕️ Mozilla drague les entreprises avec un client IA open source, Thunderbolt

MZLA, la filiale de Mozilla qui développe le client de messagerie Thunderbird depuis 2020, a annoncé le lancement de Thunderbolt, un client d'intelligence artificielle open source destiné aux entreprises. Disponible dès maintenant sur GitHub, Thunderbolt est conçu pour s'intégrer avec le framework open source Haystack et proposera des applications natives sur macOS, Windows, Linux, iOS et Android. Il se positionne comme un « client d'IA souverain » permettant le chat, la recherche, l'automatisation et les flux de travail multi-appareils via une interface auto-hébergée et extensible. L'outil est agnostique en matière de modèle de langage : il supporte Claude d'Anthropic, GPT d'OpenAI, Mistral et OpenRouter, via les protocoles MCP et ACP. MZLA précise toutefois qu'aucun point d'accès public pour l'inférence n'est encore fourni, et recommande l'usage d'Ollama ou llama.cpp pour une inférence locale gratuite. Thunderbolt répond à une demande croissante des équipes techniques en entreprise : disposer d'une interface unifiée pour accéder à leurs infrastructures IA internes, qu'elles soient hébergées localement ou chez un fournisseur cloud, sans dépendre d'un outil propriétaire. L'architecture pensée « local first » et la compatibilité avec les principaux fournisseurs de modèles en font une alternative crédible aux interfaces propriétaires comme Claude.ai ou ChatGPT Enterprise, avec l'avantage du contrôle total des données et de la personnalisation. Pour les DSI et les équipes soucieuses de souveraineté numérique, c'est un argument de poids. Mozilla s'inscrit ainsi dans une stratégie plus large de repositionnement autour de l'IA, après avoir déjà misé sur la transparence et l'ouverture avec des initiatives comme Mozilla.ai. En confiant ce projet à MZLA plutôt qu'à la fondation, l'organisation cherche à adresser directement le marché professionnel tout en restant fidèle à ses valeurs open source. Thunderbolt arrive dans un écosystème déjà animé par des outils comme Open WebUI ou AnythingLLM, mais bénéficie de la légitimité et de la communauté de développeurs que Mozilla a construites autour de Thunderbird depuis plus de vingt ans.

UEThunderbolt, avec son architecture 'local first' et son support de Mistral, répond directement aux enjeux de souveraineté numérique des DSI européens soumis au RGPD.

IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?
13Le Big Data 

IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?

La France a officialisé un partenariat pluriannuel avec AMD, le fabricant américain de semi-conducteurs, pour accélérer son infrastructure nationale en intelligence artificielle. L'accord a été signé au ministère de l'Économie et des Finances à Paris, en présence de trois ministres : Philippe Baptiste (Enseignement supérieur et Recherche), Sébastien Martin (Industrie) et Anne Le Hénanff (Numérique), ainsi que Keith Strier, vice-président senior d'AMD pour les marchés IA. Au coeur du dispositif figure le supercalculateur Alice Recoque, développé avec le GENCI, le CEA et le consortium Jules Verne, et dont la puissance visée atteint un exaflop, soit un milliard de milliards d'opérations par seconde. AMD fournira les briques technologiques aux côtés de Bull, désormais sous contrôle de l'État français, et un centre d'excellence sera chargé d'optimiser l'exploitation de cette infrastructure. Le partenariat inclut également un accès élargi aux programmes de formation du fabricant américain : AMD University Program, AMD AI Developer Program et AMD AI Academy. Ce partenariat représente une tentative concrète de combler le fossé entre excellence académique française et industrialisation de l'IA à grande échelle, un manque chroniquement identifié en Europe. En donnant aux chercheurs, start-up et ingénieurs français un accès direct aux technologies qui alimentent déjà les systèmes d'IA les plus avancés au monde, l'accord vise à accélérer le passage de la recherche au déploiement en production. L'infrastructure Alice Recoque ouvrira par ailleurs des capacités de calcul jusqu'ici inaccessibles à l'échelle nationale, couvrant des domaines aussi variés que la simulation climatique, la recherche scientifique avancée ou les applications à usage militaire. Elle alimentera aussi la future AI Factory France, destinée à structurer l'ensemble de la filière industrielle de l'IA dans le pays. Cette collaboration s'inscrit dans un contexte de course mondiale au calcul haute performance, où la France, comme le reste de l'Europe, peine à peser face aux États-Unis et à la Chine. Le choix d'AMD soulève néanmoins une question de fond sur la souveraineté numérique : peut-on revendiquer une autonomie stratégique en matière d'IA lorsque l'infrastructure repose sur un acteur américain ? La réalité industrielle laisse peu de marges de manoeuvre, les technologies de pointe en semi-conducteurs et en calcul étant aujourd'hui quasi exclusivement détenues par des entreprises non européennes. La France semble avoir arbitré en faveur de la performance immédiate, tout en espérant que cet écosystème d'excellence, de formation et de recherche posera les bases d'une plus grande autonomie technologique à moyen terme.

UELe partenariat engage directement la souveraineté numérique de la France en confiant à AMD les briques technologiques du supercalculateur Alice Recoque (1 exaflop) et de la future AI Factory France, pilier de la filière IA nationale.

💬 AMD pour "souveraineté numérique", c'est un oxymore qui fait mal à lire. Bon, sur le papier, un exaflop avec Alice Recoque et l'accès aux programmes de formation AMD, c'est du concret pour les chercheurs et les startups qui galèrent à avoir du compute. Mais confier les fondations de ta filière IA nationale à un acteur américain en appelant ça de l'autonomie stratégique, faut avoir un sacré sens de l'humour.

InfrastructureOpinion
1 source
Mozilla lance un client IA Thunderbolt axé sur l'infrastructure auto-hébergée
14Ars Technica AI 

Mozilla lance un client IA Thunderbolt axé sur l'infrastructure auto-hébergée

Mozilla vient d'annoncer Thunderbolt, un nouveau client IA destiné aux entreprises qui souhaitent héberger leur propre infrastructure d'intelligence artificielle sans dépendre de services cloud tiers. Construit sur Haystack, un framework open source permettant de créer des pipelines IA modulaires et personnalisables, Thunderbolt se positionne comme ce que Mozilla appelle un "sovereign AI client". Il est compatible avec n'importe quelle API de type OpenAI ou ACP, incluant des modèles comme Claude, DeepSeek, Codex ou OpenCode, et peut s'appuyer sur une base de données SQLite locale comme référentiel de données hors ligne. Le système propose également un chiffrement de bout en bout optionnel et des contrôles d'accès au niveau de l'appareil. Pour les entreprises, l'enjeu est considérable : garder un contrôle total sur la pile technologique IA signifie que les données sensibles ne transitent jamais vers des serveurs externes. C'est une réponse directe aux craintes croissantes des organisations face aux risques de fuite de données confidentielles vers des fournisseurs cloud comme OpenAI ou Google. En permettant l'intégration de données d'entreprise stockées localement via des protocoles ouverts, Thunderbolt s'adresse en priorité aux secteurs soumis à des contraintes réglementaires strictes : finance, santé, défense ou administrations publiques. Mozilla entre ainsi sur un marché de plus en plus encombré de solutions IA souveraines, où des acteurs comme Mistral AI en France ou diverses initiatives européennes défendent déjà le principe d'une IA indépendante des géants américains. La démarche est cohérente avec l'ADN de Mozilla, organisation à but non lucratif historiquement engagée pour un internet ouvert et décentralisé. Thunderbolt représente un pivot stratégique pour la fondation, qui cherche à monétiser son positionnement éthique dans un marché IA dominé par quelques grandes plateformes. Les suites dépendront de l'adoption par les développeurs du framework Haystack sous-jacent et de la capacité de Mozilla à convaincre les équipes IT d'entreprise de franchir le pas vers l'auto-hébergement.

UELes entreprises européennes soumises au RGPD et à l'AI Act peuvent héberger leur infrastructure IA localement avec Thunderbolt, évitant le transfert de données sensibles vers des fournisseurs cloud américains.

OutilsOutil
1 source
Pourquoi les infrastructures cloud dédiées à l’IA deviennent un enjeu stratégique en Europe ?
15Le Big Data 

Pourquoi les infrastructures cloud dédiées à l’IA deviennent un enjeu stratégique en Europe ?

Le groupe SWI (Stoneweg Icona Group) a annoncé l'acquisition d'une participation majoritaire dans Polarise, une société allemande spécialisée dans les infrastructures cloud pour l'intelligence artificielle, valorisant cette dernière à 500 millions d'euros. En parallèle, SWI s'engage à injecter un milliard d'euros supplémentaires pour accélérer le développement de ce qui se veut le premier opérateur d'infrastructures numériques souveraines à l'échelle européenne. Polarise dispose déjà de 14 centres de données opérationnels à travers l'Europe, d'une capacité totale de 2,3 GW via sa plateforme AiOnX, et d'un partenariat privilégié avec Nvidia lui donnant accès direct aux GPU les plus puissants du marché. La société a également lancé la première "AI Factory" d'Allemagne en collaboration avec Deutsche Telekom, positionnant d'emblée ce rapprochement comme une initiative industrielle de premier plan. Max-Hervé George, fondateur et PDG de SWI Group, pilote cette stratégie d'intégration verticale, couvrant la chaîne complète du foncier aux logiciels cloud. L'enjeu est considérable : les entreprises et gouvernements européens cherchent à réduire leur dépendance aux hyperscalers américains, AWS, Azure, Google Cloud, pour les charges de travail les plus sensibles. L'acquisition permet à SWI de proposer un modèle "GPU-as-a-Service" permettant aux organisations de louer de la puissance de calcul GPU à la demande, sans investissement lourd en matériel, via une infrastructure localisée en Europe et soumise au droit européen. Pour les industries de pointe en Allemagne, en France ou en Norvège, cela représente un accès à des capacités de calcul haute performance sans compromis sur la souveraineté des données. Ce modèle favorise également une innovation plus rapide pour les startups et PME qui n'ont pas les moyens de construire leur propre infrastructure. Cette opération s'inscrit dans un mouvement plus large de structuration de la filière IA européenne face à la domination des géants américains et à la montée en puissance des acteurs chinois. L'Union européenne multiplie depuis plusieurs années les appels à bâtir une capacité numérique autonome, notamment à travers le règlement sur l'IA et les investissements du programme Horizon. La rareté des GPU Nvidia, dont Polarise est revendeur agréé, confère à cette alliance un avantage concurrentiel structurel dans un marché sous tension. Les prochaines étapes visent l'extension géographique vers l'Allemagne et la Norvège, deux pays disposant d'une énergie abondante et bon marché indispensable pour alimenter ces infrastructures énergivores. Si SWI tient ses engagements d'investissement, le groupe pourrait devenir un acteur de référence pour les contrats publics et les grandes entreprises cherchant une alternative crédible aux solutions extraeuropéennes.

UEL'acquisition crée un opérateur cloud souverain européen offrant aux entreprises et gouvernements de l'UE une alternative concrète aux hyperscalers américains pour leurs charges de travail sensibles, avec accès aux GPU Nvidia via une infrastructure soumise au droit européen.

InfrastructureOpinion
1 source
L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups
16The Information AI 

L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups

Le gouvernement chinois a ouvert une enquête sur la vente de la startup d'agents IA Manus à Meta Platforms, provoquant une onde de choc dans l'écosystème des startups d'intelligence artificielle en Chine. Cette investigation, dont les détails précis restent flous, cible une transaction qui représentait pour de nombreux fondateurs un débouché naturel : être rachetés par un géant technologique américain. Hank Yuan, co-fondateur d'une nouvelle startup basée à Shenzhen qui développe un agent IA pour le marché mondial, résume le sentiment général : « Tous les fondateurs de startups IA que je connais suivent l'affaire Manus de très près. » L'impact est immédiat et concret. Plusieurs startups envisagent désormais de déplacer tout ou partie de leurs opérations vers Singapour, ou de quitter la Chine entièrement. Le choix du financement devient aussi une question stratégique brûlante : lever des fonds en yuan chinois ou en dollars américains implique désormais des conséquences géopolitiques directes sur la capacité à vendre à l'international ou à attirer des investisseurs américains. Comme le formule Yuan, les fondateurs doivent « réfléchir encore plus soigneusement aux marchés visés, à la structure juridique de leur entreprise et à la devise dans laquelle lever des fonds ». Les startups dont l'ambition se limite au marché chinois, financées par du capital-risque local ou asiatique, sont moins exposées à ces tensions. Cette affaire s'inscrit dans une rivalité technologique sino-américaine de plus en plus intense, où les acquisitions transfrontalières d'entreprises IA deviennent des enjeux de souveraineté nationale. Pékin surveille de près les transferts de technologie vers des entreprises américaines, notamment dans le domaine de l'IA agentique, considéré comme stratégique. Pour les fondateurs chinois qui cherchent une sortie vers les grands groupes de la Silicon Valley, la fenêtre se resserre. Singapour, hub neutre entre les deux blocs, s'impose comme la destination de repli privilégiée pour ceux qui veulent préserver à la fois un accès aux marchés occidentaux et une base opérationnelle en Asie.

UELes tensions géopolitiques sino-américaines autour des acquisitions d'IA pourraient inciter l'UE à renforcer sa propre surveillance des transferts technologiques transfrontaliers impliquant des startups chinoises.

BusinessOpinion
1 source
Mythos : l’Europe tenue à l’écart du modèle IA le plus ambitieux du moment
17Next INpact 

Mythos : l’Europe tenue à l’écart du modèle IA le plus ambitieux du moment

Anthropic a dévoilé Mythos, son nouveau grand modèle de langage spécialisé dans la cybersécurité, en limitant drastiquement son accès à une quarantaine d'organisations et une dizaine d'entreprises, toutes américaines. Le modèle s'inscrit dans le projet Glasswing, dont l'objectif est de laisser le LLM analyser le code de logiciels pour détecter des bugs, corriger des vulnérabilités et boucher des failles de sécurité. JPMorgan Chase est le seul établissement bancaire partenaire confirmé à ce stade. Aux États-Unis, les banques ont été encouragées à adopter Mythos pour renforcer leurs systèmes. L'administration Trump a été directement présentée au modèle, malgré une relation tendue avec Anthropic : le gouvernement américain a désigné l'entreprise « fournisseur à risque pour la sécurité nationale » après qu'elle a refusé d'accorder une licence pour certains usages militaires, un différend qui se règle désormais devant les tribunaux. En Europe, sur les huit agences de cybersécurité interrogées par Politico, seule l'agence fédérale allemande BSI a indiqué avoir engagé des discussions avec Anthropic, sans pour autant avoir pu tester le modèle. Le Royaume-Uni fait figure d'exception : l'AISI, son organisme dédié à la sécurité de l'IA, a publié le 13 avril une première évaluation indépendante des capacités offensives de Mythos. Cette mise à l'écart de l'Europe illustre une fracture concrète dans l'accès aux technologies d'IA de pointe. Les infrastructures critiques européennes, gouvernements compris, n'ont pas été conviés au projet alors même qu'elles seraient potentiellement parmi les premières bénéficiaires d'un tel outil. L'agence néerlandaise NCSC-NL a souligné l'impossibilité de vérifier l'impact réel des vulnérabilités identifiées par Mythos, faute de détails techniques accessibles. Ce manque de transparence place les régulateurs européens dans une position d'observateurs passifs face à un modèle dont Anthropic elle-même revendique le potentiel « dévastateur » dans sa propre communication. L'épisode Mythos révèle une tension structurelle entre la puissance réglementaire européenne et sa dépendance technologique envers les acteurs américains. L'AI Act, malgré son ambition, ne garantit pas à l'Union un accès aux modèles les plus sensibles développés outre-Atlantique. Comme le résume Daniel Privitera, de l'ONG allemande KIRA, « l'Europe ne dispose actuellement d'aucun plan pour garantir cet accès ». La distribution sélective de Mythos préfigure un enjeu qui va s'amplifier : dans un monde où les capacités offensives et défensives en cybersécurité reposent de plus en plus sur des LLM propriétaires, la souveraineté numérique se jouera aussi sur la capacité à accéder aux modèles de frontier, pas seulement à les réguler.

UELes agences de cybersécurité européennes, dont l'ANSSI en France, sont explicitement exclues de Mythos, laissant les infrastructures critiques du continent sans accès à un outil de détection de vulnérabilités que les États-Unis déploient déjà à l'échelle fédérale et bancaire.

SécuritéOpinion
1 source
Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul
18Le Big Data 

Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul

Running Brains Robotics, une PME implantée à Mérignac en région bordelaise, s'impose progressivement sur le marché européen de la surveillance autonome avec ses robots patrouilleurs entièrement conçus en France. La société a développé deux modèles complémentaires : le GR100, déjà déployé sur plusieurs sites, et le GR200, conçu pour les environnements difficiles et le tout-terrain. Ces machines effectuent des rondes continues sur des sites sensibles, analysant portes, clôtures et mouvements suspects, lisant des plaques d'immatriculation, détectant des fuites et remontant les anomalies en temps réel vers un centre de supervision. Les robots alternent entre missions actives et recharge rapide, restant connectés en permanence même à l'arrêt. La société est déjà opérationnelle en France et en Italie, où elle a notamment décroché un déploiement au sein du groupe Leonardo, acteur majeur de l'aéronautique et de la défense européenne, pour surveiller des infrastructures sensibles. Ce type de système redéfinit l'organisation des équipes de sécurité sur site. Les robots prennent en charge les tâches répétitives de contrôle et de ronde, libérant les opérateurs humains pour se concentrer sur les interventions à plus forte valeur ajoutée, c'est-à-dire l'analyse et la décision finale. Les machines ne remplacent pas les forces de sécurité et n'interviennent pas directement en cas d'infraction : elles collectent et transmettent les données, les humains agissent. Pour les sites industriels, les ports, les aéroports ou les installations critiques, l'intérêt est double : une couverture 24h/24 sans fatigue ni absence, et une réduction des coûts opérationnels sur les missions à faible valeur ajoutée. Les déploiements en conditions réelles chez Leonardo valident l'efficacité opérationnelle de l'approche, un signal fort pour convaincre d'autres grands groupes industriels. Running Brains Robotics se distingue par une maîtrise intégrale de sa chaîne technologique, de la conception mécanique aux algorithmes de navigation et de détection, sans dépendance envers des fournisseurs extérieurs. Ce positionnement souverain prend une résonance particulière dans un contexte européen où la sécurité des infrastructures critiques est au coeur des préoccupations stratégiques. La robotique de surveillance est un marché en pleine expansion, avec des acteurs américains, asiatiques et israéliens déjà bien installés, et l'émergence d'une solution 100% française répond à des enjeux de souveraineté industrielle que les grandes entreprises et les gouvernements commencent à prendre en compte dans leurs appels d'offres. La montée en puissance annoncée d'ici 2028 suggère que la société compte accélérer son développement commercial en Europe, portée par des références industrielles crédibles et un positionnement technologique différenciant.

UEUne PME française propose une solution souveraine de surveillance autonome déjà déployée chez Leonardo pour protéger des infrastructures critiques européennes, répondant aux enjeux de souveraineté industrielle dans les appels d'offres publics et privés en France et en UE.

RobotiqueOpinion
1 source
Microsoft teste des agents IA similaires à OpenClaw pour 365 Copilot
19The Verge AI 

Microsoft teste des agents IA similaires à OpenClaw pour 365 Copilot

Microsoft explore l'intégration de fonctionnalités inspirées d'OpenClaw dans son assistant 365 Copilot, selon un rapport de The Information. Omar Shahine, vice-président corporate de Microsoft, a confirmé à la publication que la société « explore le potentiel de technologies comme OpenClaw dans un contexte d'entreprise ». L'objectif affiché est de permettre à 365 Copilot de « fonctionner de manière autonome en continu », en exécutant des tâches au nom des utilisateurs sans intervention humaine constante. Cette évolution marquerait un tournant significatif pour la suite bureautique de Microsoft, utilisée par des centaines de millions de professionnels dans le monde. Un Copilot capable d'agir en autonomie permanente, traiter des e-mails, planifier des réunions, rédiger des documents, transformerait l'assistant d'un outil réactif en un véritable agent proactif. Pour les entreprises, cela représente autant une promesse de productivité qu'un défi en matière de contrôle, de conformité et de sécurité des données. OpenClaw est une plateforme open-source qui permet de créer des agents IA tournant localement sur l'appareil de l'utilisateur, sans dépendre du cloud. Sa popularité a fortement progressé ces derniers mois, portée par l'intérêt croissant pour les agents autonomes et la souveraineté des données. Microsoft n'est pas seul sur ce terrain : Google, Salesforce et plusieurs startups misent également sur les agents IA d'entreprise. L'intégration éventuelle dans 365 Copilot, déjà déployé chez de nombreuses grandes entreprises, donnerait à Microsoft un avantage concurrentiel considérable dans la course aux assistants professionnels autonomes.

UELes entreprises européennes utilisant Microsoft 365 devront évaluer les implications de conformité RGPD et d'AI Act si Copilot évolue vers une exécution autonome et continue de tâches en leur nom.

💬 Un agent qui gère tes mails et réunions sans qu'on lui demande, c'est ce que tout le monde promet depuis 2 ans. Là c'est Microsoft qui passe à l'acte, avec une base de déploiement déjà massive et une technologie (OpenClaw) conçue justement pour tourner en local, sans dépendre du cloud. Les DPO européens vont avoir du boulot.

OutilsOutil
1 source
On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?
20Numerama 

On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?

Apple a lancé début 2025 son MacBook Pro équipé de la puce M5 Pro, disponible à partir de 3 199 euros dans sa configuration 48 Go de RAM unifée. La version haut de gamme, le M5 Max avec 128 Go de mémoire, monte jusqu'à 6 429 euros sans augmentation du stockage. Des journalistes tech ont soumis cette machine à des tests intensifs de LLM locaux, faisant tourner des modèles open source tels que Mistral, DeepSeek, les modèles Alibaba Qwen et plusieurs variantes Google Gemma directement sur le matériel, sans connexion cloud. Ce type de configuration intéresse de plus en plus les développeurs, chercheurs et professionnels qui veulent exécuter des modèles de langage en local pour des raisons de confidentialité, de latence ou de coût. La mémoire unifiée des puces Apple Silicon est une architecture particulièrement adaptée à ce cas d'usage : contrairement aux PC classiques où la RAM et la VRAM sont séparées, le CPU et le GPU partagent le même pool mémoire, ce qui permet de charger entièrement des modèles de 30 à 70 milliards de paramètres sans swap. Les résultats des tests montrent des vitesses d'inférence utilisables au quotidien, loin derrière un GPU NVIDIA haut de gamme mais suffisantes pour un workflow professionnel autonome. Cette tendance s'inscrit dans un mouvement plus large de démocratisation de l'IA locale, accéléré par la sortie de modèles open source performants et compacts. Des acteurs comme Mistral AI, DeepSeek ou Alibaba proposent désormais des versions quantisées de leurs modèles optimisées pour ce type de matériel. Face aux interrogations croissantes sur la souveraineté des données et la dépendance aux API cloud, le couple Apple Silicon + ollama ou LM Studio s'impose comme une alternative crédible pour les professionnels prêts à investir plusieurs milliers d'euros dans une machine autonome.

UELa tendance à l'IA locale répond aux préoccupations européennes de souveraineté des données, et Mistral AI figure parmi les modèles open source testés sur ce type de matériel.

💬 Le M5 Pro 48 Go, c'est le premier Mac où je me dis que l'IA locale est devenue praticable sans compromis majeur. Tu charges un modèle de 30 à 70 milliards de paramètres, ça tourne sur la même mémoire que le reste, pas de swap, pas de GPU externe à brancher. 3 200 euros de base, c'est cher, et la vitesse d'inférence reste loin d'un bon GPU NVIDIA, mais pour du travail autonome sur des données confidentielles, j'ai du mal à voir mieux dans ce format.

InfrastructureActu
1 source
LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone
21Numerama 

LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone

LM Studio, logiciel américain spécialisé dans l'exécution de modèles de langage en local sur Mac, a annoncé l'acquisition de Locally AI, une application française dédiée à l'iPhone. Locally AI permettait aux utilisateurs d'installer et de faire tourner directement sur leur appareil des modèles open source tels que Qwen d'Alibaba ou Gemma de Google, sans passer par le cloud. L'application se distinguait également par l'un des rares accès publics au modèle Apple Foundation, que la firme de Cupertino réserve normalement en exclusivité à ses propres fonctions Apple Intelligence. Cette acquisition marque une étape importante dans la démocratisation de l'IA locale sur mobile. En intégrant Locally AI à son écosystème, LM Studio étend son périmètre au-delà du Mac et s'impose comme un acteur transversal sur les plateformes Apple, couvrant désormais à la fois ordinateurs et smartphones. Pour les utilisateurs, cela représente une garantie de confidentialité renforcée : les données restent sur l'appareil, sans transmission à des serveurs tiers, ce qui intéresse particulièrement les professionnels soucieux de la souveraineté de leurs données. Le rachat s'inscrit dans une tendance de fond : la course aux modèles légers et efficaces capables de tourner sur du matériel grand public. Apple Silicon a ouvert la voie en offrant des puces suffisamment performantes pour inférer des modèles de plusieurs milliards de paramètres directement sur iPhone ou Mac. LM Studio, en consolidant l'offre iOS et macOS sous une même bannière, se positionne comme la référence de l'IA on-device dans l'univers Apple, face à des concurrents comme Ollama ou GPT4All qui restent cantonnés au desktop.

UEL'acquisition de Locally AI, startup française, par LM Studio illustre la consolidation du marché de l'IA on-device au profit d'acteurs américains, soulevant des questions de souveraineté numérique pour les professionnels français qui misaient sur cette solution indépendante.

BusinessOpinion
1 source
Nvidia vs Meta : qui contrôle vraiment l’IA en 2026 ?
22Le Big Data 

Nvidia vs Meta : qui contrôle vraiment l’IA en 2026 ?

En 2026, deux géants se livrent une bataille ouverte pour le contrôle de l'infrastructure de l'intelligence artificielle mondiale. D'un côté, Nvidia capte entre 80 et 90 % du marché des GPU pour centres de données, enchaînant les trimestres records grâce à une demande pour ses puces Blackwell qui dépasse toutes les prévisions. De l'autre, Meta, dirigé par Mark Zuckerberg, a décidé de rompre sa dépendance à ce fournisseur unique en annonçant jusqu'à 135 milliards de dollars d'investissements en capital pour 2026, dont un contrat historique de 6 gigawatts de puces AMD. Le marché mondial de l'IA générative devrait franchir 100 milliards de dollars d'ici fin 2026, porté par une adoption professionnelle massive : près de 80 % des entreprises prévoient d'intégrer des API d'IA ou de déployer des modèles personnalisés dans leurs processus. Les revenus issus des applications mobiles boostées à l'IA devraient doubler entre 2024 et 2026, avec une répartition géographique marquée : 37,3 milliards de dollars pour les États-Unis (+60 %), 14,7 milliards pour la Chine (+72 %), et une projection de 20 milliards pour la France à horizon 2030. L'enjeu dépasse la simple guerre commerciale entre deux entreprises. Ce que Meta cherche à construire, c'est une souveraineté technologique sur sa propre pile IA, de l'infrastructure physique jusqu'aux modèles. Tant que Nvidia reste le passage obligé pour tout acteur sérieux de l'IA, le géant de Menlo Park reste exposé à des pénuries, des hausses de prix et des délais de livraison qu'il ne contrôle pas. La diversification vers AMD n'est pas un choix technique anodin : c'est un signal politique adressé à toute l'industrie. En parallèle, les joueurs grand public risquent de subir les conséquences de cette course aux serveurs IA, Nvidia orientant clairement sa production vers les centres de données au détriment du segment gaming. La véritable forteresse de Nvidia ne réside pas dans ses puces mais dans son écosystème logiciel CUDA, standard industriel dominant depuis plus de quinze ans, que la concurrence peine à détrôner malgré des investissements considérables. L'architecture Rubin, attendue en succession des Blackwell, devrait creuser encore l'écart en termes de performances brutes. Meta n'est pas seul dans cette tentative de diversification : Google avec ses TPU, Amazon avec ses Trainium, et Microsoft via ses investissements dans OpenAI cherchent tous à réduire leur exposition à un seul fournisseur. La question qui structure désormais toute la filière est celle des infrastructures : les réseaux électriques, les capacités de refroidissement et les chaînes d'approvisionnement en semi-conducteurs peuvent-ils absorber une demande qui double tous les dix-huit mois ? C'est sur ce terrain physique, autant que logiciel, que se jouera la prochaine phase de la course à l'IA.

UELes entreprises européennes restent structurellement dépendantes de l'écosystème Nvidia/CUDA pour leurs projets IA, rendant leur accès à l'infrastructure coûteux et soumis aux arbitrages de production d'acteurs hors UE.

InfrastructureOpinion
1 source
Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence
23Le Big Data 

Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence

Mistral AI, la licorne française valorisée 11,7 milliards d'euros, a publié un document détaillant 22 mesures d'urgence pour permettre à l'Europe de ne pas se laisser distancer par les États-Unis et la Chine dans la course à l'intelligence artificielle. Parmi les propositions phares figure la création d'une "AI blue card", un titre de séjour simplifié inspiré de la carte bleue européenne, destiné à faciliter l'installation de chercheurs et développeurs étrangers sur le continent. L'entreprise appelle également à instaurer une préférence européenne dans les marchés publics, à introduire des incitations fiscales pour l'adoption d'infrastructures locales, et à centraliser les oeuvres du domaine public afin d'alimenter l'entraînement des modèles d'IA sans dépendre des plateformes étrangères. Pour donner corps à sa vision, Mistral AI a levé 830 millions de dollars de dette, destinés notamment à la construction d'un centre de données en France, avec un objectif de plus d'un milliard d'euros de chiffre d'affaires d'ici 2026. Ces propositions s'attaquent à un déséquilibre structurel documenté : sur 1 400 milliards de dollars investis dans le numérique à l'échelle mondiale, 80 % sont captés par les États-Unis. L'Europe dispose des talents et d'une capacité de financement, mais peine à organiser un marché cohérent qui permette à ses acteurs de rivaliser. Si les mesures proposées par Mistral étaient adoptées, elles changeraient concrètement les règles du jeu pour les entreprises et administrations européennes, qui seraient incitées à privilégier des solutions locales plutôt que de s'appuyer sur AWS, Azure ou Google Cloud. Pour les chercheurs étrangers, la "AI blue card" représenterait un signal fort que l'Europe entend sérieusement concurrencer la Silicon Valley en matière d'attractivité. Ces propositions s'inscrivent dans un contexte de prise de conscience accélérée sur la souveraineté technologique en Europe. OpenAI elle-même a publié récemment 13 pages de recommandations sur l'encadrement de l'automatisation, signe que les grands acteurs cherchent à peser sur les débats réglementaires avant que les gouvernements ne tranchent. Mistral, fondée en 2023 par d'anciens chercheurs de DeepMind et Meta, s'est rapidement imposée comme le champion européen de l'IA générative, avec des modèles open source compétitifs face aux offres américaines. En publiant ce plan en 22 points, la startup sort d'une posture purement technique pour entrer dans le débat politique et industriel, à un moment où la Commission européenne et les États membres cherchent encore leur doctrine face à la montée en puissance des grands modèles. Les prochains mois seront décisifs : si ces mesures trouvent un écho à Bruxelles ou à Paris, elles pourraient redéfinir les conditions dans lesquelles se développe l'IA en Europe.

UEMistral AI, licorne française, propose 22 mesures concrètes, préférence européenne dans les marchés publics, 'AI blue card' pour les talents étrangers, incitations fiscales pour l'infrastructure locale, qui pourraient redéfinir les règles du jeu pour les entreprises et administrations françaises et européennes.

RégulationReglementation
1 source
Santé : comment l'IA pourrait transformer les remboursements en outils de prédiction médicale
24La Tribune 

Santé : comment l'IA pourrait transformer les remboursements en outils de prédiction médicale

La Direction de la recherche, des études, de l'évaluation et des statistiques (Drees) a publié une étude démontrant que des modèles d'intelligence artificielle peuvent anticiper avec précision l'apparition de pathologies lourdes en exploitant le Système national des données de santé (SNDS). Cette base de données, constituée de l'ensemble des remboursements de l'Assurance maladie française, représente l'un des gisements de données médicales les plus exhaustifs au monde, couvrant près de 70 millions d'assurés sur plusieurs décennies. L'approche clé consiste à traiter les parcours de soins, enchaînements de consultations, prescriptions, hospitalisations, comme des séquences textuelles, permettant aux algorithmes de type transformeur d'y détecter des motifs invisibles aux biostatistiques classiques. Les résultats montrent que ces modèles surpassent significativement les méthodes statistiques traditionnelles pour prédire des maladies chroniques ou des complications graves avant leur déclaration clinique. Pour les médecins et les organismes de santé publique, cela ouvre la voie à une médecine préventive ciblée : identifier les patients à risque élevé plusieurs mois à l'avance, prioriser les interventions et potentiellement réduire la charge sur les hôpitaux. Les économies potentielles pour le système de santé sont considérables, dans un contexte de déficit chronique de l'Assurance maladie. Ces avancées ne vont pas sans tensions. L'exploitation du SNDS, bien que réglementée par la CNIL et le Health Data Hub, soulève des questions persistantes sur la confidentialité des données et les risques de discrimination algorithmique, notamment envers les populations défavorisées, souvent moins bien représentées dans les parcours de soins tracés. Se pose également la question de la souveraineté industrielle : qui développe ces modèles, sur quelle infrastructure, et au bénéfice de qui ? La France dispose d'un actif stratégique rare ; encore faut-il qu'elle en garde la maîtrise.

UEL'étude de la Drees exploite directement le SNDS, base de données de l'Assurance maladie française couvrant 70 millions d'assurés, et soulève des enjeux de souveraineté industrielle et de gouvernance réglementaire (CNIL, Health Data Hub) propres à la France.

💬 Le SNDS, c'est littéralement le meilleur dataset médical du monde occidental, et on commence enfin à en faire quelque chose d'utile. Traiter des parcours de soins comme des séquences textuelles pour les passer dans des transformeurs, c'est une idée simple en apparence, mais les résultats sur la prédiction de pathologies lourdes sont solides. La vraie question, c'est pas la technique, c'est qui va capter la valeur : un acteur français, européen, ou un géant américain qui lorgne dessus depuis des années.

RecherchePaper
1 source
OpenClaw vs ChatGPT : quel agent IA local bat le roi du cloud ?
25Le Big Data 

OpenClaw vs ChatGPT : quel agent IA local bat le roi du cloud ?

En 2026, le débat entre agents IA locaux et solutions cloud a pris une nouvelle dimension avec l'émergence d'OpenClaw, un agent dit "skills-based" qui s'exécute directement sur la machine de l'utilisateur. Contrairement à ChatGPT Agent, le mode Operator d'OpenAI lancé dans le courant de l'année, OpenClaw accède au terminal, manipule les fichiers locaux, gère les dépôts Git et peut tourner en arrière-plan même session fermée, envoyant des notifications sur Discord à la fin d'une tâche. ChatGPT Agent fonctionne lui exclusivement dans le navigateur : l'IA clique, défile et remplit des formulaires à la place de l'utilisateur, mais s'arrête dès que l'onglet est fermé. Sur le plan tarifaire, OpenClaw revient à environ 10 à 30 dollars par mois selon la consommation d'API, contre 20 dollars fixes pour l'abonnement ChatGPT Plus incluant l'accès au mode Operator. La différence fondamentale entre les deux approches tient à la souveraineté des données et à la flexibilité technique. Avec OpenClaw, l'utilisateur choisit lui-même ses modèles, Claude 3.5 pour les raisonnements complexes, Llama 3 ou Kimi pour les tâches répétitives, afin d'optimiser ses coûts, tandis que ChatGPT impose l'écosystème OpenAI sans possibilité de substitution. La mémoire d'OpenClaw est persistante via des fichiers stockés sur disque ; celle de ChatGPT Agent est éphémère, réinitialisée à chaque session. Pour les professionnels qui valorisent l'intégration profonde dans leur environnement de travail, scripts actifs, assets locaux, automatisations conditionnelles, l'agent local représente un levier que le cloud ne peut pas reproduire. Nvidia a par ailleurs introduit NemoClaw, une couche de sécurité greffable sur OpenClaw pour encadrer les actions de l'agent et prévenir les comportements non désirés, comblant l'un des reproches traditionnels faits aux solutions locales. Ce duel s'inscrit dans un basculement plus large du marché de l'IA : on ne parle plus de simples chatbots, mais d'agents capables d'agir de manière autonome sur des systèmes réels. OpenAI a misé sur l'accessibilité maximale avec une interface sans friction, au prix d'un contrôle réduit pour l'utilisateur. OpenClaw, porté par une communauté technique exigeante, répond à un besoin croissant de confidentialité et d'autonomie, notamment dans les secteurs sensibles, finance, santé, défense, où héberger des données sur des serveurs tiers reste rédhibitoire. La vraie question pour 2026 n'est donc pas laquelle des deux IA est "plus intelligente", mais laquelle correspond au niveau de contrôle et de confiance que chaque utilisateur est prêt à exercer sur ses outils numériques.

UELa souveraineté des données mise en avant par OpenClaw répond aux exigences du RGPD et aux contraintes des secteurs réglementés en France et en UE (finance, santé, défense), où l'hébergement tiers reste problématique.

OutilsOutil
1 source
Mistral dévoile 22 mesures dédiées à l’IA pour réveiller l’Europe avant qu’il ne soit trop tard
26Siècle Digital 

Mistral dévoile 22 mesures dédiées à l’IA pour réveiller l’Europe avant qu’il ne soit trop tard

Mistral AI a publié un manifeste détaillant 22 propositions concrètes pour permettre à l'Europe de rattraper son retard dans la course mondiale à l'intelligence artificielle. Arthur Mensch, cofondateur et PDG de la startup française, tire la sonnette d'alarme : selon lui, les citoyens, les entreprises et les gouvernements européens sont aujourd'hui « dépendants d'une domination étrangère », celle des géants américains et des acteurs chinois qui contrôlent les modèles, les infrastructures et les données sur lesquels repose l'IA mondiale. Ces 22 mesures ciblent trois leviers stratégiques : l'attraction et la rétention des talents, l'orientation des marchés publics vers des solutions souveraines, et l'accès aux données. L'enjeu est considérable pour l'industrie européenne. Si les administrations et entreprises du continent continuent de s'appuyer exclusivement sur des modèles américains ou chinois, elles transfèrent de facto leurs données sensibles et leur souveraineté technologique à des acteurs étrangers soumis à des législations incompatibles avec le droit européen. Orienter les marchés publics vers des fournisseurs comme Mistral permettrait de financer un écosystème local tout en réduisant cette dépendance structurelle. Mistral, fondée en 2023 et valorisée à plus de six milliards de dollars, s'impose comme le principal champion européen face à OpenAI et Google. Cette prise de position intervient dans un contexte de débat intense sur le AI Act européen et les appels répétés à construire une « IA souveraine ». En publiant ces mesures, Arthur Mensch cherche à peser sur l'agenda politique européen avant que l'écart technologique ne devienne définitivement impossible à combler.

UEMistral, champion français de l'IA valorisé à plus de 6 milliards de dollars, propose 22 mesures pour réduire la dépendance européenne aux modèles étrangers, avec des implications directes sur les marchés publics français et la souveraineté numérique de l'UE.

RégulationReglementation
1 source
ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G
27ZDNET FR 

ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G

L'Office européen des brevets (OEB) a enregistré en 2025 un record historique avec plus de 200 000 demandes de brevets déposées sur le continent, une première dans son histoire. Cette hausse, portée notamment par les secteurs de l'intelligence artificielle et de l'informatique quantique, traduit une dynamique d'innovation sans précédent en Europe. Les dépôts liés à l'IA ont progressé à un rythme particulièrement soutenu, reflétant la course mondiale aux technologies d'apprentissage automatique et de traitement du langage naturel. Ce chiffre symbolique dépasse la simple statistique : il signale un repositionnement stratégique de l'Europe dans la compétition technologique mondiale, longtemps dominée par les États-Unis et la Chine. Sur le terrain de la 6G et des semi-conducteurs, les inventeurs européens affichent une progression inattendue, deux domaines considérés comme critiques pour la souveraineté numérique et industrielle des prochaines décennies. Ces brevets constituent un actif économique direct, ouvrant la voie à des licences, des partenariats et une capacité de négociation renforcée face aux géants américains et asiatiques. Cette accélération s'inscrit dans le sillage des politiques industrielles engagées par l'Union européenne, notamment le Chips Act européen et les investissements massifs dans la recherche fondamentale via Horizon Europe. La montée en puissance de la 6G survient alors que les standards de la prochaine génération de réseaux mobiles sont encore en cours de définition, offrant à l'Europe une fenêtre d'opportunité pour peser sur les normes internationales avant que le marché ne soit verrouillé par quelques acteurs dominants.

UEL'Europe améliore concrètement sa capacité de négociation sur les standards 6G et les licences de semi-conducteurs, réduisant sa dépendance technologique face aux États-Unis et à la Chine.

InfrastructureOpinion
1 source
IA et quantique en zone nordique : un écosystème industriel mûr, ouvert aux innovations françaises
28FrenchWeb 

IA et quantique en zone nordique : un écosystème industriel mûr, ouvert aux innovations françaises

Les pays nordiques s'imposent comme un laboratoire avancé de l'IA et du quantique à l'échelle européenne. Un centre nordique dédié à l'intelligence artificielle vient d'être lancé, accompagné de financements ciblés sur la numérisation industrielle et l'adoption de l'IA dans les grands secteurs productifs. Les entreprises technologiques françaises sont explicitement citées parmi les acteurs bienvenus pour s'intégrer à cet écosystème en pleine structuration. L'enjeu dépasse la simple vitrine technologique : les grands comptes nordiques, industrie manufacturière, énergie, logistique, cherchent des solutions quantiques et d'IA "prêtes à intégrer", c'est-à-dire opérationnelles, documentées et compatibles avec leurs systèmes existants. Ce signal est fort pour les startups et ETI françaises spécialisées, qui peuvent y trouver des clients industriels solvables et des partenaires capables de valider leurs technologies en conditions réelles, bien avant une mise à l'échelle européenne. Cette dynamique s'inscrit dans un tournant stratégique européen autour de la souveraineté technologique, où les pays nordiques jouent un rôle moteur grâce à une culture industrielle forte, des États investisseurs et une densité de talents en ingénierie. La France, de son côté, dispose d'acteurs reconnus en calcul quantique, notamment via le Plan Quantique doté de 1,8 milliard d'euros depuis 2021, et en IA appliquée. La convergence entre l'offre française et la demande nordique représente une fenêtre d'internationalisation concrète, à condition d'adapter les solutions aux exigences d'intégration industrielle des acheteurs scandinaves.

UELe lancement d'un centre nordique dédié à l'IA ouvre une fenêtre concrète d'internationalisation pour les startups et ETI françaises spécialisées en IA et quantique, dans la continuité du Plan Quantique doté de 1,8 milliard d'euros.

BusinessOpinion
1 source
OpenAI esquisse une économie de l'IA : fonds souverains, taxes sur les robots et semaine de quatre jours
29TechCrunch AI 

OpenAI esquisse une économie de l'IA : fonds souverains, taxes sur les robots et semaine de quatre jours

OpenAI a publié un document de politique économique dans lequel l'entreprise propose une série de mesures pour atténuer les effets de l'intelligence artificielle sur l'emploi et les inégalités. Parmi les pistes évoquées figurent une taxation des profits générés par l'IA, la création de fonds souverains publics alimentés par ces revenus, des filets de sécurité sociale élargis, une semaine de travail de quatre jours et une forme de dividende universel lié aux gains de productivité de l'IA. Ces propositions interviennent alors que les décideurs politiques cherchent des réponses concrètes à une question de plus en plus pressante : comment redistribuer équitablement les richesses produites par l'automatisation ? Pour des millions de travailleurs exposés aux déplacements d'emploi, ces mécanismes représenteraient une transformation profonde du contrat social, en faisant de l'IA un moteur de prospérité partagée plutôt qu'une source de concentration des richesses. OpenAI occupe une position paradoxale en formulant ces recommandations : c'est l'une des entreprises qui accélère le plus la disruption qu'elle propose de corriger. Le document s'inscrit dans un débat croissant entre Silicon Valley, gouvernements et économistes sur la gouvernance de l'IA, alors que des propositions similaires circulent en Europe et que le G7 commence à intégrer la question fiscale liée à l'automatisation dans ses agendas.

UELes propositions d'OpenAI s'inscrivent dans un débat européen actif sur la fiscalité de l'IA et la redistribution des gains de productivité, le G7 ayant déjà intégré ces questions fiscales liées à l'automatisation à son agenda.

RégulationReglementation
1 source
Onyx : une alternative à Claude, plus puissante, open-source et locale ?
30Le Big Data 

Onyx : une alternative à Claude, plus puissante, open-source et locale ?

Onyx est une plateforme d'intelligence artificielle open source qui a franchi le cap des 20 000 étoiles sur GitHub début avril 2026, attirant l'attention des équipes techniques à la recherche d'alternatives aux solutions propriétaires comme Claude d'Anthropic. Conçue pour s'installer en self-hosting via Docker, elle fonctionne comme une couche d'orchestration complète : elle se connecte à plus de 40 sources de données d'entreprise (stockage, messagerie, gestion de projet), indexe les contenus en continu et dialogue avec n'importe quel LLM, qu'il s'agisse de modèles cloud, d'API externes ou de modèles tournant entièrement en local. Sur les benchmarks de recherche approfondie, Onyx affiche des scores supérieurs à plusieurs solutions propriétaires, en combinant recherche sémantique, indexation permanente et exploration web intégrée pour produire des réponses contextualisées et traçables. L'enjeu concret est la souveraineté technologique des organisations. En permettant de choisir librement le modèle sous-jacent selon chaque usage et d'optimiser les coûts sans dépendre d'un fournisseur unique, Onyx élimine le risque de verrouillage propriétaire qui préoccupe de nombreux DSI et responsables de la sécurité informatique. Les réponses ne reposent plus sur des données d'entraînement génériques, mais sur les documents internes réels de l'entreprise, synchronisés en temps réel. Dans des environnements professionnels où chaque réponse doit être justifiable et auditable, cette traçabilité représente un avantage opérationnel direct. L'outil "Craft" intégré pousse la logique plus loin : il permet de générer non seulement des documents, mais aussi des tableaux de bord, des applications web et des visualisations à partir des données internes, dans des environnements isolés garantissant la confidentialité. Le lancement d'Onyx s'inscrit dans une dynamique plus large de professionnalisation de l'IA open source, portée par des projets comme LangChain, Ollama ou LlamaIndex, qui ont progressivement rendu accessibles des capacités jusqu'alors réservées aux grandes plateformes cloud. Face à la montée en puissance de Claude, GPT-4o et Gemini, une partie de l'écosystème technique cherche à construire des infrastructures IA qui restent sous contrôle de l'organisation. Onyx mise sur la dimension collaborative pour se différencier davantage : la plateforme gère des rôles, des accès granulaires et des agents automatisés configurables avec des règles précises, la rapprochant d'un système applicatif complet plutôt que d'un simple assistant conversationnel. La prochaine étape pour le projet sera de démontrer sa robustesse à l'échelle dans des environnements de production critiques, un terrain où les solutions propriétaires conservent encore une avance significative en matière de support et de garanties contractuelles.

UELes organisations européennes soucieuses de souveraineté numérique et de conformité RGPD peuvent déployer Onyx en self-hosting pour garder leurs données internes hors des clouds américains.

OutilsOutil
1 source
Souveraineté numérique : Bull passe à l’offensive avec 500 embauches
31La Tribune 

Souveraineté numérique : Bull passe à l’offensive avec 500 embauches

Bull, l'entreprise française spécialisée dans les supercalculateurs, relancée par l'État français après sa scission d'Atos, annonce un plan de 500 recrutements, réalisés majoritairement en Europe. Ce mouvement offensif cible les domaines des supercalculateurs haute performance et de l'intelligence artificielle, deux secteurs jugés stratégiques pour l'indépendance technologique nationale. Cette offensive de recrutement signale la volonté de Bull de s'imposer comme un acteur souverain crédible face aux géants américains et asiatiques du calcul intensif. Dans un contexte où la puissance de calcul conditionne directement la compétitivité industrielle, la recherche scientifique et les capacités de défense, disposer d'un champion national dans ce domaine représente un enjeu majeur pour la France et l'Europe. Les 500 postes visent à renforcer les équipes d'ingénierie et à accélérer le développement de solutions locales non soumises aux lois extraterritoriales américaines. Bull a été séparé d'Atos lors de la restructuration du groupe technologique français, lui-même en difficulté financière depuis plusieurs années. L'État, actionnaire de référence, a choisi de préserver et de dynamiser cette branche stratégique plutôt que de la céder. Cette décision s'inscrit dans une tendance européenne plus large de réinvestissement dans les infrastructures numériques souveraines, portée notamment par le plan France 2030 et les ambitions du projet EuroHPC.

UEBull, champion national du calcul intensif soutenu par l'État français, recrute 500 ingénieurs majoritairement en Europe pour développer des alternatives souveraines aux solutions HPC et IA soumises aux lois extraterritoriales américaines.

InfrastructureActu
1 source
Arcee lance Trinity-Large-Thinking, un modèle d'IA open source américain puissant que les entreprises peuvent télécharger et personnaliser
32VentureBeat AI 

Arcee lance Trinity-Large-Thinking, un modèle d'IA open source américain puissant que les entreprises peuvent télécharger et personnaliser

Arcee AI, un laboratoire de San Francisco fondé il y a quelques années et fort d'une équipe de seulement 30 personnes, a lancé cette semaine Trinity-Large-Thinking, un modèle de raisonnement textuel à 399 milliards de paramètres publié sous licence Apache 2.0 — l'une des licences open source les plus permissives qui soit, autorisant toute modification et usage commercial. Le modèle est disponible en téléchargement sur Hugging Face. Pour le construire, Arcee a engagé 20 millions de dollars, soit près de la moitié de ses fonds totaux (un peu moins de 50 millions, dont 24 millions levés lors d'une Serie A menée par Emergence Capital en 2024), dans une unique session d'entraînement de 33 jours sur un cluster de 2 048 GPU NVIDIA B300 Blackwell — deux fois plus rapides que la génération Hopper précédente. Ce lancement intervient à un moment charnière pour l'IA open source. Depuis l'apparition de ChatGPT fin 2022, le flambeau des modèles ouverts a successivement été porté par Meta avec sa famille Llama, puis par des laboratoires chinois comme Qwen ou DeepSeek. Mais ces acteurs chinois amorcent aujourd'hui un retour vers des modèles propriétaires, laissant un vide stratégique que des entreprises américaines cherchent à combler. Pour les entreprises occidentales, dépendre d'architectures chinoises pour des infrastructures critiques devient politiquement et opérationnellement risqué. Trinity-Large-Thinking se positionne explicitement comme une alternative souveraine, ce que Clément Delangue, cofondateur et PDG de Hugging Face, résume ainsi : « La force des États-Unis a toujours été ses startups — peut-être que ce sont eux sur qui il faut compter pour mener l'open source en IA. Arcee prouve que c'est possible. » Sur le plan technique, Trinity-Large-Thinking repose sur une architecture Mixture-of-Experts (MoE) d'une rareté extrême : sur ses 400 milliards de paramètres totaux, seuls 1,56 % — soit 13 milliards — sont activés pour chaque token traité. Résultat : le modèle dispose de la profondeur de connaissance d'un très grand système tout en fonctionnant deux à trois fois plus vite que ses concurrents sur le même matériel. Pour stabiliser l'entraînement de cette architecture sparse, l'équipe a développé une technique maison appelée SMEBU (Soft-clamped Momentum Expert Bias Updates), qui évite que certains experts monopolisent les calculs tandis que d'autres restent inutilisés. Le corpus d'entraînement atteint 20 trillions de tokens, moitié données web curées via un partenariat avec DatologyAI, moitié données synthétiques de raisonnement. Trinity-Large-Thinking illustre qu'avec une ingénierie rigoureuse et des contraintes budgétaires serrées, un petit laboratoire américain peut aujourd'hui rivaliser avec les géants — et potentiellement redéfinir qui contrôle la prochaine génération de modèles ouverts.

UELes entreprises européennes peuvent adopter Trinity-Large-Thinking comme alternative open source souveraine aux modèles chinois pour leurs infrastructures critiques, disponible immédiatement sous licence Apache 2.0.

LLMsOpinion
1 source
Microsoft étend son offre IA avec de nouveaux modèles vocaux et visuels
33AI Business 

Microsoft étend son offre IA avec de nouveaux modèles vocaux et visuels

Microsoft franchit une nouvelle étape dans le développement de ses propres modèles d'intelligence artificielle en annonçant des systèmes dédiés à la voix et à l'image, allant au-delà des grands modèles de langage textuels sur lesquels la firme de Redmond s'est largement appuyée jusqu'ici. Cette initiative marque une volonté affichée de maîtriser l'ensemble de la chaîne des capacités d'IA, plutôt que de sous-traiter ces briques à des partenaires externes. L'enjeu est considérable pour l'industrie : en développant ses propres modèles vocaux et visuels, Microsoft réduit sa dépendance vis-à-vis d'OpenAI, dont il est le principal investisseur et distributeur via Azure. Cela lui permettrait de proposer des solutions plus intégrées, moins coûteuses et plus personnalisables pour ses clients entreprises, tout en gardant la main sur la roadmap technologique de ses produits phares comme Copilot. Cette évolution s'inscrit dans une tendance plus large de verticalisation de l'IA au sein des grandes plateformes technologiques : Google, Apple et Amazon ont chacun suivi une trajectoire similaire. La relation entre Microsoft et OpenAI, longtemps présentée comme un partenariat exclusif, montre ainsi ses limites stratégiques à mesure que l'IA devient un avantage concurrentiel central. La course à la souveraineté sur les modèles fondamentaux ne fait que commencer.

UELes entreprises françaises et européennes utilisant Azure pourraient accéder à des modèles vocaux et visuels plus intégrés et compétitifs, réduisant leur dépendance indirecte à OpenAI.

OutilsOpinion
1 source
« Une société vitale pour le pays » : c’est quoi cette entreprise française d’IA et de minage que Xavier Niel a sauvée
34Frandroid 

« Une société vitale pour le pays » : c’est quoi cette entreprise française d’IA et de minage que Xavier Niel a sauvée

Xavier Niel, fondateur de Free et figure incontournable de la tech française, est intervenu pour sauver Exaion, une ancienne filiale d'EDF spécialisée dans l'intelligence artificielle et le minage de cryptomonnaies. C'est l'Élysée en personne qui aurait sollicité le patron de l'opérateur télécoms pour orchestrer ce sauvetage discret, considérant l'entreprise comme une société d'importance vitale pour le pays. Les détails financiers du montage restent partiellement confidentiels, mais l'opération témoigne d'une intervention directe au plus haut niveau de l'État. Exaion occupe une position rare dans le paysage technologique français : elle combine infrastructure de calcul haute performance, capacités d'IA et activité de minage de cryptomonnaies, un triptyque stratégique à l'heure où la souveraineté numérique est devenue une priorité gouvernementale. Laisser cette entité tomber dans des mains étrangères ou disparaître aurait pu priver la France d'une infrastructure critique pour le traitement de données sensibles et la compétitivité dans la course mondiale à l'IA. Née au sein d'EDF, Exaion s'est développée à l'intersection de l'énergie et du numérique, deux secteurs où la France cherche à consolider ses positions face aux géants américains et chinois. L'appel à Xavier Niel s'inscrit dans une tendance plus large où l'État français mobilise des industriels de confiance pour sécuriser des actifs technologiques jugés sensibles, sans passer par des nationalisations formelles. La suite dépendra de la stratégie que Niel entend déployer pour valoriser cet actif hybride, à mi-chemin entre data center souverain et infrastructure Web3.

UEL'État français a orchestré le sauvetage d'Exaion, ancienne filiale d'EDF, pour préserver une infrastructure souveraine de calcul haute performance jugée critique pour la compétitivité nationale en IA.

💬 Quand l'Élysée appelle Niel en direct pour sauver une boîte, tu mesures à quel point c'était tendu. Exaion c'est ce profil qu'on cherche à reconstituer depuis dix ans : calcul haute perf, IA, infra ancrée dans l'énergie plutôt que dans la Silicon Valley, et une légitimité souveraine qui ne s'achète pas. Ce que j'attends maintenant, c'est de voir si Niel en fait vraiment quelque chose, ou si ça reste un actif de confort pour l'État.

BusinessActu
1 source
Liquid AI publie LFM2.5-350M : un modèle compact de 350 millions de paramètres entraîné sur 28 000 milliards de tokens avec apprentissage par renforcement
35MarkTechPost 

Liquid AI publie LFM2.5-350M : un modèle compact de 350 millions de paramètres entraîné sur 28 000 milliards de tokens avec apprentissage par renforcement

Liquid AI a publié LFM2.5-350M, un modèle de langage de 350 millions de paramètres entraîné sur 28 000 milliards de tokens — soit un ratio tokens/paramètres de 80 000 pour 1, un record dans cette catégorie de taille. Contrairement aux architectures Transformer classiques, ce modèle repose sur une structure hybride appelée LIV (Linear Input-Varying Systems) : 10 blocs de convolution LIV à double gating et 6 blocs d'attention GQA (Grouped Query Attention). Cette combinaison permet de gérer une fenêtre de contexte de 32 768 tokens tout en maintenant une empreinte mémoire extrêmement réduite — 169 Mo sur un Snapdragon 8 Elite, 81 Mo sur GPU Snapdragon, et 300 Mo sur Raspberry Pi 5. Sur GPU NVIDIA H100, le modèle atteint 40 400 tokens générés par seconde en forte concurrence. Aux benchmarks, il affiche 76,96 sur IFEval (suivi d'instructions), 30,64 sur GPQA Diamond et 20,01 sur MMLU-Pro. Ce modèle s'adresse directement au marché de l'IA embarquée : appareils mobiles, systèmes edge, IoT, environnements à ressources contraintes. Sa capacité à tourner en moins de 300 Mo de RAM le rend déployable sans cloud, sans GPU serveur, directement sur l'appareil de l'utilisateur final. Pour les développeurs qui construisent des agents autonomes, des pipelines d'extraction de données structurées (JSON, appels de fonctions) ou des systèmes de traitement d'instructions complexes, le LFM2.5-350M offre une vitesse d'inférence difficile à atteindre avec des modèles deux fois plus grands. En revanche, Liquid AI est explicite : ce modèle n'est pas recommandé pour les mathématiques avancées, le code complexe ou l'écriture créative — domaines où la densité de paramètres reste déterminante. Liquid AI, startup fondée par des chercheurs du MIT spécialisés dans les réseaux neuronaux liquides, s'inscrit dans un courant croissant qui remet en question le dogme du « toujours plus grand ». Alors que les grands acteurs — OpenAI, Google, Anthropic — continuent de pousser des modèles frontier aux milliards de paramètres, une contre-tendance émerge autour de la densité d'intelligence : faire mieux avec moins, en optimisant radicalement le ratio données/paramètres et l'architecture elle-même. L'abandon partiel du mécanisme d'attention au profit de systèmes LIV réduit le problème du cache KV qui pénalise les Transformers sur les longues séquences. Cette approche ouvre la voie à une IA véritablement locale, souveraine et déployable sans dépendance à l'infrastructure cloud — un enjeu stratégique croissant dans un contexte de régulation des données et de souveraineté numérique.

UELa capacité du modèle à fonctionner sans infrastructure cloud s'aligne avec les enjeux de souveraineté numérique et de conformité RGPD en Europe, où le traitement local des données réduit la dépendance aux serveurs américains.

LLMsOpinion
1 source
L'équipe Qwen d'Alibaba publie Qwen3.5 Omni : un modèle multimodal natif pour le texte, l'audio, la vidéo et l'interaction en temps réel
36MarkTechPost 

L'équipe Qwen d'Alibaba publie Qwen3.5 Omni : un modèle multimodal natif pour le texte, l'audio, la vidéo et l'interaction en temps réel

L'équipe Qwen d'Alibaba a publié Qwen3.5-Omni, un modèle multimodal natif capable de traiter simultanément du texte, des images, de l'audio et de la vidéo au sein d'un seul pipeline computationnel. Disponible en trois variantes — Plus (raisonnement complexe), Flash (faible latence) et Light (efficacité) — le modèle phare Qwen3.5-Omni-Plus revendique des résultats de pointe sur 215 sous-tâches de compréhension et de raisonnement audio et audiovisuel, dépassant selon Alibaba le Gemini 3.1 Pro de Google sur la compréhension audio générale, la reconnaissance vocale et la traduction. Son encodeur audio natif (Audio Transformer) a été pré-entraîné sur plus de 100 millions d'heures de données audio-visuelles, et l'architecture supporte des fenêtres contextuelles de 256 000 tokens — soit plus de 10 heures d'audio continu ou 400 secondes de contenu vidéo 720p. Ce lancement marque un tournant dans la conception des modèles multimodaux : on passe des architectures « en patchwork », où des encodeurs spécialisés (comme Whisper pour l'audio) sont greffés sur un socle textuel, à des systèmes entièrement natifs et unifiés. Pour l'industrie, cela signifie des agents vocaux et visuels capables d'interaction en temps réel sans les pénalités de latence propres aux pipelines en cascade. L'architecture Thinker-Talker, couplée à un mécanisme Hybrid-Attention Mixture of Experts (MoE), permet au modèle d'allouer dynamiquement ses ressources selon la modalité dominante — favorisant les tokens visuels lors d'une analyse vidéo, par exemple — tout en conservant un débit compatible avec les services de streaming. Concrètement, les développeurs d'applications vocales, de systèmes de sous-titrage automatique ou d'assistants multimodaux disposent d'un socle technique plus robuste et moins coûteux à exploiter. La course aux modèles omnimodaux s'est accélérée depuis que Google a démontré avec Gemini la viabilité des architectures nativement multimodales, forçant les acteurs comme OpenAI, Meta et Alibaba à répondre. Qwen3.5-Omni s'inscrit dans la stratégie offensive d'Alibaba pour s'imposer comme alternative crédible aux modèles occidentaux, notamment sur les marchés asiatiques et auprès des entreprises sensibles à la souveraineté des données. Deux problèmes d'ingénierie spécifiques à l'interaction temps réel ont été adressés : la stabilité du flux de parole (via un mécanisme baptisé ARIA — Adaptive Rate Interleave Alignment, qui synchronise les tokens texte et audio de nature asymétrique) et la fluidité conversationnelle. Les benchmarks avancés par Alibaba — 8 tests de reconnaissance automatique de la parole, 156 tâches de traduction parole-texte dans des langues spécifiques, 43 tâches d'ASR ciblées — restent à valider par des évaluations indépendantes, mais positionnent déjà Qwen3.5-Omni comme un concurrent direct aux modèles les plus avancés du moment.

UELes entreprises européennes sensibles à la souveraineté des données disposent d'une alternative crédible aux modèles américains pour leurs déploiements d'agents vocaux et visuels multimodaux en temps réel.

💬 L'architecture native, c'est vraiment ce qui change la donne ici. Pas un Whisper greffé sur un LLM avec du scotch, mais un seul pipeline qui ingère tout en même temps, avec 100 millions d'heures d'entraînement audio-vidéo derrière. Les benchmarks Alibaba, bon, à vérifier en conditions réelles — mais le socle technique, lui, a l'air solide.

LLMsOpinion
1 source
Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures
37The Information AI 

Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures

Le chatbot de DeepSeek a subi une panne majeure de plus de dix heures dans la nuit de dimanche à lundi, rendant inaccessibles à la fois le site web et l'application mobile de la startup chinoise. Il s'agit de l'interruption de service la plus longue enregistrée depuis que le modèle phare de l'entreprise avait connu un succès viral début 2025. Le service a été rétabli lundi matin, sans que DeepSeek n'ait fourni d'explication publique sur les causes de l'incident. Une panne de cette durée sur un service d'IA aussi fréquenté soulève des questions sérieuses sur la fiabilité de l'infrastructure de DeepSeek. Pour les millions d'utilisateurs qui dépendent du chatbot comme outil de travail quotidien, dix heures d'indisponibilité représentent une interruption significative. L'absence de communication officielle aggrave la situation : les entreprises et développeurs intégrant DeepSeek dans leurs flux de travail se retrouvent sans visibilité sur les risques opérationnels. DeepSeek s'était imposé comme un concurrent inattendu face à OpenAI et Google début 2025, en proposant des performances comparables à des coûts bien inférieurs, ce qui avait provoqué un choc boursier aux États-Unis. Mais la montée en charge rapide d'un service qui n'avait pas été conçu pour une adoption mondiale de masse expose désormais ses faiblesses infrastructurelles. Cette panne survient alors que la fiabilité et la souveraineté des outils d'IA font l'objet d'un examen croissant, notamment en Europe où la provenance chinoise de DeepSeek alimente des débats sur la dépendance technologique.

UELa panne relance le débat en Europe sur la dépendance aux outils d'IA d'origine chinoise et les risques pour la souveraineté technologique.

💬 10 heures, aucune explication, aucun post-mortem. C'est ça qui me pose problème, pas la panne en elle-même (tout tombe, même OpenAI). Quand tu intègres un service dans ton workflow sans avoir aucune visibilité sur ce qui s'est passé, tu travailles à l'aveugle. Bon, c'est le signal pour tous ceux qui hésitaient encore sur la question souveraineté.

InfrastructureOpinion
1 source
Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production
38VentureBeat AI 

Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production

Cohere a lancé Transcribe, un modèle de reconnaissance vocale automatique (ASR) en open-weight, disponible depuis mars 2026 via API ou dans son Model Vault sous l'identifiant cohere-transcribe-03-2026. Avec 2 milliards de paramètres et une licence Apache-2.0 autorisant un usage commercial immédiat, le modèle affiche un taux d'erreur moyen sur les mots (WER) de 5,42 % — le meilleur score actuellement sur le classement ASR de Hugging Face. Il devance Whisper Large v3 d'OpenAI (7,44 %), ElevenLabs Scribe v2 (5,83 %) et Qwen3-ASR-1.7B (5,76 %). Transcribe prend en charge 14 langues : anglais, français, allemand, italien, espagnol, grec, néerlandais, polonais, portugais, chinois, japonais, coréen, vietnamien et arabe. Sur des benchmarks spécialisés, il obtient 8,15 % sur AMI (compréhension de réunions) et 5,87 % sur VoxPopuli (diversité d'accents). Ce lancement change concrètement la donne pour les entreprises qui construisent des workflows voix, des pipelines de transcription ou des systèmes de recherche audio. Jusqu'ici, elles devaient choisir entre des API fermées — précises mais problématiques pour la souveraineté des données — ou des modèles open source moins performants. Transcribe rompt ce compromis : il tourne sur l'infrastructure GPU locale d'une organisation, éliminant les risques de résidence des données et les pénalités de latence liées aux API externes. Pour les équipes qui construisent des pipelines RAG ou des agents IA intégrant de l'audio, c'est une voie directe vers la transcription de qualité production sans dépendance à un fournisseur cloud. Cohere se positionne depuis plusieurs années comme l'alternative "enterprise-first" aux grands modèles grand public, en misant sur le déploiement privé et la conformité réglementaire. Transcribe s'inscrit dans cette stratégie : là où Whisper avait été publié comme modèle de recherche sous licence MIT sans priorité commerciale immédiate, Cohere livre d'emblée un modèle prêt pour la production. La société précise avoir optimisé simultanément la précision (WER bas) et le débit (RTFx élevé), ce qui est techniquement difficile dans la catégorie des modèles de plus d'un milliard de paramètres. Les premiers utilisateurs ont salué notamment la capacité à rapatrier en interne des flux audio qui transitaient jusqu'alors par des API tierces — un enjeu croissant dans les secteurs soumis au RGPD ou aux réglementations sectorielles strictes comme la finance et la santé.

UELe modèle supporte le français et permet un déploiement on-premise éliminant les risques de résidence des données, un avantage direct pour les entreprises européennes soumises au RGPD dans les secteurs finance et santé.

OutilsOpinion
1 source
Mistral AI lève 830 millions de dollars pour un centre de données IA
39AI Business 

Mistral AI lève 830 millions de dollars pour un centre de données IA

Mistral AI a annoncé avoir levé 830 millions de dollars pour financer la construction d'un centre de données dédié à l'intelligence artificielle, qui sera implanté en région parisienne. Cette infrastructure, alimentée par des milliers de puces Nvidia, représente l'un des investissements les plus importants jamais réalisés dans l'IA en Europe. La startup française, fondée en 2023, consolide ainsi sa position parmi les acteurs majeurs du secteur à l'échelle mondiale. Ce centre de calcul donnera à Mistral une capacité d'entraînement et d'inférence souveraine, réduisant sa dépendance aux infrastructures cloud américaines comme AWS ou Azure. Pour les entreprises et institutions européennes soucieuses de la localisation de leurs données, cette infrastructure sur sol français représente une alternative crédible aux géants américains. C'est aussi un signal fort sur la capacité de l'Europe à construire une filière IA complète, du modèle jusqu'au silicium. Mistral s'inscrit dans une course mondiale à la puissance de calcul où les États-Unis et la Chine investissent des dizaines de milliards. La France, qui a fait de l'IA souveraine une priorité industrielle, bénéficie ici d'un effet d'entraînement : après les annonces gouvernementales du plan France 2030, un acteur privé passe à l'acte à grande échelle. Les prochains mois diront si d'autres startups européennes suivront cette voie ou si Mistral restera une exception dans un paysage dominé par les hyperscalers américains.

UEMistral AI construit un centre de calcul souverain en région parisienne, offrant aux entreprises et institutions françaises et européennes une alternative locale aux hyperscalers américains pour l'hébergement et l'inférence IA sensibles.

💬 830 millions pour un datacenter, c'est le moment où Mistral arrête de jouer dans la cour des grands et devient un grand. Ce qui m'intéresse vraiment là-dedans, c'est la souveraineté d'inférence : des boîtes françaises qui pourront faire tourner des modèles sans que leurs données passent par Virginia ou Oregon. Reste à voir combien ça coûtera à l'usage.

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA
40Next INpact 

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral AI a finalisé lundi 30 mars un emprunt de 830 millions de dollars (722 millions d'euros) auprès d'un pool de sept banques pour équiper son datacenter de Bruyères-le-Châtel, au sud de Paris. Cet argent servira à acquérir 13 800 puces GB300 de NVIDIA, les processeurs de dernière génération destinés aux charges d'IA intensives. Une fois déployée, cette infrastructure portera la puissance informatique disponible pour la startup à 44 mégawatts. Le financement mobilise une majorité d'acteurs français — Bpifrance, BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis — ainsi que la banque japonaise MUFG (groupe Mitsubishi). La mise en service est annoncée pour le deuxième trimestre 2026. Cet investissement positionne Mistral comme le premier opérateur d'infrastructure IA souveraine en Europe capable d'offrir à ses clients institutionnels une puissance de calcul hors de toute juridiction extraterritoriale américaine. C'est l'enjeu central de l'offre Mistral Compute, lancée en juin 2025 et déjà contractualisée avec le ministère des Armées français en janvier 2026. Pour les gouvernements, administrations et grandes entreprises qui cherchent à déployer des modèles IA sans dépendre d'AWS, Azure ou Google Cloud, cette infrastructure représente une alternative concrète et européenne — un argument commercial de poids dans un contexte de tensions géopolitiques et de débats sur la souveraineté numérique. Le projet avait été annoncé en février 2025, avec Eclairion — spécialiste français des datacenters haute densité — comme partenaire de construction. À l'époque, l'intégrateur britannique devenu américain Fluidstack était également associé au projet, mais Bloomberg indique qu'il a depuis réorienté ses investissements vers les États-Unis, laissant le champ plus libre à une configuration franco-française. En décembre 2025, le CEO d'Eclairion évoquait encore un cluster de puces GB200 comme « la plus grosse machine d'IA de France » sur le point d'entrer en production pour Mistral — les cartes semblent avoir été rebattues depuis, avec une transition vers les GB300, génération supérieure. En parallèle, Mistral a annoncé en février 2026 un second investissement de 1,2 milliard d'euros dans un autre projet de datacenter, confirmant une stratégie d'expansion infrastructure qui va bien au-delà du seul développement de modèles de langage. La startup cofondée par Arthur Mensch se construit désormais en fournisseur de cloud souverain à part entière.

UEMistral installe à Bruyères-le-Châtel la première infrastructure IA souveraine d'Europe hors juridiction américaine, déjà contractualisée avec le ministère des Armées français, offrant aux institutions et entreprises européennes une alternative concrète aux hyperscalers américains.

💬 722 millions d'euros de dette pour acheter des GPU, c'est pas anodin comme pari. Bon, sur le papier le timing est parfait : les gouvernements européens cherchent désespérément une sortie des hyperscalers américains, et Mistral vient d'arriver avec 13 800 GB300 et un contrat Armées déjà dans la poche. Ce qui me frappe surtout, c'est le pivot : on parle plus d'une boîte de modèles, mais d'un vrai fournisseur de cloud souverain.

InfrastructureOpinion
1 source
Mistral AI lève 830 millions de dollars en dette pour financer un datacenter près de Paris
41TechCrunch AI 

Mistral AI lève 830 millions de dollars en dette pour financer un datacenter près de Paris

Mistral AI a annoncé une levée de 830 millions de dollars sous forme de dette pour financer la construction d'un centre de données situé près de Paris. La startup française, fondée en 2023, prévoit de mettre en service cette infrastructure dès le deuxième trimestre 2026. Ce financement par dette — distinct d'une levée en capital — lui permet de préserver sa structure actionnariale tout en mobilisant des ressources massives pour déployer ses propres capacités de calcul. Cette décision marque un tournant stratégique majeur : disposer de son propre data center permettra à Mistral de réduire sa dépendance aux fournisseurs cloud américains comme AWS ou Azure, de maîtriser ses coûts d'inférence à grande échelle, et de répondre aux exigences de souveraineté numérique de clients institutionnels et gouvernementaux européens. Pour l'industrie, c'est un signal fort que les acteurs IA européens entendent concurrencer les géants américains sur leur propre terrain — celui de l'infrastructure. Mistral s'est imposée comme le principal champion européen de l'IA générative, avec des modèles comme Mistral Large et Mixtral. La France a fait de l'IA souveraine une priorité nationale, et la startup bénéficie d'un soutien politique fort. Alors que les besoins en puissance de calcul explosent avec la montée en charge des usages LLM, contrôler son infrastructure devient un avantage concurrentiel décisif — et un argument commercial de poids face aux entreprises européennes soucieuses de la localisation de leurs données.

UELa construction d'un data center souverain près de Paris par Mistral AI renforce l'autonomie numérique française et européenne, offrant aux institutions et entreprises de l'UE une alternative aux hyperscalers américains pour leurs besoins en calcul IA.

💬 830 millions en dette, pas en capital, c'est malin. Mistral garde la main sur son actionnariat tout en se construisant une infra qui va peser lourd dans les appels d'offres publics, ceux où "hébergé en France" n'est plus un bonus mais un prérequis. Reste à voir si le datacenter tourne vraiment au T2 2026 comme annoncé.

Arthur Mensch, patron de Mistral AI, héraut d’une intelligence artificielle ouverte et souveraine
42Le Monde Pixels 

Arthur Mensch, patron de Mistral AI, héraut d’une intelligence artificielle ouverte et souveraine

Arthur Mensch, 31 ans, cofondateur et PDG de Mistral AI, s'est imposé comme la figure centrale du débat européen sur l'intelligence artificielle souveraine. Fondée en 2023 à Paris avec Charles Aznavour et Timothée Lacroix, la startup a levé plus de 1,1 milliard d'euros en moins de deux ans, atteignant une valorisation de 6 milliards de dollars — un record pour l'IA européenne. Sa stratégie repose sur la publication de modèles en open source, comme Mistral 7B ou Mixtral, qui rivalisent avec les géants américains à fraction du coût. Pour Mensch, l'open source n'est pas un choix technique mais un acte politique : permettre à n'importe quelle entreprise, gouvernement ou chercheur de déployer une IA sans dépendre d'OpenAI, Google ou Anthropic. Cette position séduit des acteurs publics européens soucieux de leur souveraineté numérique, notamment en France et en Allemagne, où Mistral a signé des contrats avec des administrations. Mensch incarne une troisième voie entre le capitalisme fermé de Silicon Valley et l'IA d'État chinoise. Ancien chercheur chez DeepMind et Google Brain, il joue un rôle croissant dans les discussions réglementaires européennes, plaidant pour un AI Act qui n'étouffe pas l'innovation open source. Avec le lancement de Mistral Large et de la plateforme Le Chat, la startup ambitionne de devenir le fournisseur d'IA de référence pour les entreprises européennes.

UEMistral AI, startup française valorisée 6 milliards de dollars, fournit des modèles open source aux administrations françaises et allemandes, incarnant une alternative souveraine aux fournisseurs américains pour les entreprises et gouvernements européens.

BusinessOpinion
1 source
Mistral lève 830 millions d’euros pour financer un gros projet en France
4301net 

Mistral lève 830 millions d’euros pour financer un gros projet en France

Mistral AI a annoncé une levée de fonds de 830 millions d'euros sous forme de dette, quelques mois seulement après son précédent tour de table qui lui avait permis d'atteindre une valorisation de 6 milliards de dollars. Cette opération, l'une des plus importantes jamais réalisées par une start-up européenne dans le domaine de l'intelligence artificielle, vise à financer un projet d'infrastructure de grande envergure sur le territoire français. Cet afflux de capitaux doit permettre à Mistral de réduire sa dépendance aux infrastructures cloud américaines — Amazon Web Services, Microsoft Azure ou Google Cloud — qui dominent aujourd'hui le marché du calcul pour l'IA. En construisant sa propre capacité de calcul en France, la start-up entend maîtriser ses coûts à long terme tout en offrant à ses clients européens une alternative souveraine aux hyperscalers américains. Fondée en 2023 par d'anciens chercheurs de Google DeepMind et Meta, Mistral s'est imposée comme le principal rival européen d'OpenAI. Cette levée intervient dans un contexte de course effrénée aux ressources GPU, alors que les modèles de nouvelle génération exigent des investissements infrastructurels colossaux. La stratégie d'indépendance cloud de Mistral pourrait faire école auprès d'autres acteurs européens cherchant à s'affranchir de la tutelle des géants américains.

UEMistral construit une infrastructure de calcul souveraine en France, offrant aux entreprises et institutions européennes une alternative concrète aux hyperscalers américains.

💬 830 millions en dette, c'est un pari énorme sur leur capacité à monétiser vite. Ce qui m'intéresse, c'est pas la somme, c'est le choix de sortir des hyperscalers américains : si ça marche, Mistral contrôle ses marges ET son destin réglementaire. Reste à voir si les clients européens suivent vraiment, ou si AWS reste "plus simple" comme toujours.

Mistral AI emprunte 830 millions de dollars pour financer un nouveau datacenter près de Paris
44The Decoder 

Mistral AI emprunte 830 millions de dollars pour financer un nouveau datacenter près de Paris

Mistral AI lève 830 millions de dollars sous forme de dette pour financer la construction d'un datacenter à proximité de Paris, équipé de près de 14 000 GPU NVIDIA. L'opération, structurée comme un emprunt bancaire, marque une étape importante pour la startup française fondée en 2023, qui cherche à se doter d'une infrastructure de calcul souveraine plutôt que de dépendre exclusivement de fournisseurs cloud américains. Cette décision illustre l'ampleur des investissements désormais nécessaires pour rester compétitif dans la course aux grands modèles de langage. Disposer de ses propres GPU en nombre suffit à réduire les coûts d'inférence à long terme et à garantir une indépendance opérationnelle — deux avantages stratégiques face à des géants comme OpenAI ou Google, qui s'appuient sur des clouds propriétaires. Pour les clients européens soucieux de souveraineté des données, un datacenter français renforce également l'argument commercial de Mistral. La prise de risque reste néanmoins considérable : Mistral n'est vraisemblablement pas encore rentable, et contracter une dette de cette magnitude pèse lourd sur une startup, même bien financée. L'entreprise avait levé 600 millions d'euros en juin 2024 à une valorisation de 6 milliards de dollars, attirant notamment Microsoft comme partenaire. Le recours à la dette plutôt qu'à une nouvelle levée en capital suggère une volonté de limiter la dilution des actionnaires tout en accélérant le déploiement d'infrastructure — un pari sur la capacité à générer des revenus suffisants avant que les échéances de remboursement ne deviennent critiques.

UEMistral AI construit un datacenter souverain près de Paris avec 14 000 GPU, renforçant directement la capacité de calcul indépendante de la France et l'argument commercial de souveraineté des données pour les clients européens.

💬 830 millions en dette, c'est un pari énorme pour une boîte qui n'est probablement pas encore rentable. Mais je comprends la logique : dépendre d'AWS ou d'Azure pour faire tourner tes modèles, c'est laisser les clés à tes concurrents. Reste à voir si les revenus suivent avant que les premières échéances arrivent.

BusinessOpinion
1 source
Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France
45Maddyness 

Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France

Mistral AI a finalisé un financement par dette de 830 millions de dollars destiné à l'exploitation de son premier centre de données souverain en France. Cette opération, distincte d'une levée de fonds en capital classique, permet à la startup parisienne fondée en 2023 de conserver sa structure actionnariale tout en mobilisant des ressources massives pour une infrastructure physique propre. Ce passage à l'hébergement en propre marque un tournant stratégique majeur : Mistral ne dépend plus uniquement des hyperscalers américains comme AWS ou Azure pour faire tourner ses modèles. Disposer d'un datacenter français signifie une maîtrise totale de la chaîne de traitement des données, un argument de poids auprès des clients institutionnels et des gouvernements européens soucieux de souveraineté numérique. Ce mouvement s'inscrit dans une course mondiale à la puissance de calcul où les acteurs de l'IA réalisent que le contrôle de l'infrastructure est aussi stratégique que les modèles eux-mêmes. Mistral, qui compte parmi ses clients la Commission européenne et plusieurs États membres, consolide ainsi sa position de champion européen face aux géants américains. L'opération pourrait également préfigurer une introduction en bourse ou un partenariat industriel à grande échelle dans les mois à venir.

UEMistral AI construit un datacenter souverain en France, réduisant la dépendance aux hyperscalers américains et offrant aux institutions publiques et gouvernements européens une alternative crédible pour le traitement souverain des données.

💬 C'est le move qu'on attendait depuis que Mistral a commencé à vendre aux gouvernements. Un datacenter souverain en France, c'est pas un bonus symbolique, c'est la condition pour décrocher les gros contrats institutionnels sans que personne te demande où tournent les données. Et 830 millions en dette plutôt qu'en capital, ça dit beaucoup sur leur ambition : ils préservent l'actionnariat pour ce qui vient après.

MISTRAL mobilise 705 millions d’euros pour son data center et avancerait désormais seul
46FrenchWeb 

MISTRAL mobilise 705 millions d’euros pour son data center et avancerait désormais seul

Mistral AI a annoncé une levée de dette de 705 millions d'euros destinée à financer la construction d'un centre de données aux portes de Paris. L'objectif central de cette opération est l'acquisition de 13 800 GPU Nvidia, ce qui permettrait à la startup française d'internaliser une capacité de calcul significative jusqu'ici dépendante de fournisseurs cloud tiers. Cette annonce marque un tournant stratégique majeur pour la jeune entreprise, fondée en 2023 et déjà valorisée plusieurs milliards d'euros. Ce virage infrastructurel confère à Mistral un contrôle direct sur ses coûts de formation et d'inférence, réduisant sa dépendance aux grandes plateformes cloud américaines comme AWS ou Azure. Posséder sa propre puissance de calcul est désormais considéré comme un impératif compétitif dans la course aux modèles de langage avancés — ceux qui nécessitent des dizaines de milliers de GPU pour s'entraîner. Pour l'écosystème européen de l'IA, un tel investissement représente aussi un signal fort : la souveraineté numérique passe désormais par la maîtrise du silicium. Cette décision s'inscrit dans un contexte où l'IA mondiale franchit une nouvelle phase, après deux ans centrés sur la course aux modèles. Les acteurs qui ne contrôlent pas leur infrastructure risquent d'être dépendants — techniquement et financièrement — des hyperscalers américains. Mistral semble par ailleurs vouloir avancer en autonomie accrue, sans nouveaux partenaires stratégiques majeurs pour cette opération, ce qui suggère une montée en maturité et une volonté d'indépendance industrielle assumée.

UEL'investissement de Mistral dans un data center francilien avec 13 800 GPU Nvidia constitue un acte concret de souveraineté numérique européenne, réduisant la dépendance des acteurs français aux hyperscalers américains pour l'entraînement et l'inférence de modèles IA.

💬 705 millions en dette pour 13 800 GPU, c'est un pari énorme. Ce qui me frappe surtout, c'est qu'ils avancent seuls, sans nouveau partenaire au capital, ce qui veut dire soit qu'ils ont vraiment les reins solides, soit que les discussions n'ont rien donné de satisfaisant. Reste à voir si l'infra suit quand les modèles de prochaine génération demanderont le double.

InfrastructureOpinion
1 source
Mistral AI emprunte 722M€ pour son datacenter français de Bruyères-le-Châtel
47ZDNET FR 

Mistral AI emprunte 722M€ pour son datacenter français de Bruyères-le-Châtel

Mistral AI a finalisé un emprunt de 722 millions d'euros auprès de sept grandes banques pour financer la construction de son datacenter souverain de 44 mégawatts à Bruyères-le-Châtel, en Essonne, à une quarantaine de kilomètres au sud de Paris. Cette dette servira à acquérir l'infrastructure Grace Blackwell de Nvidia, soit 13 800 GPU parmi les plus puissants du marché, destinés à l'entraînement et à l'inférence de ses modèles de langage. C'est l'un des plus grands financements par dette jamais contractés par une startup européenne de l'IA, et il marque un tournant : Mistral ne s'appuie plus uniquement sur des levées de fonds en capital, mais mobilise des instruments financiers bancaires classiques pour accélérer sa montée en puissance de calcul. Pour les entreprises et administrations françaises qui cherchent des alternatives souveraines aux géants américains, cette infrastructure représente une capacité concrète et localisée sur le sol national. Ce projet s'inscrit dans la stratégie plus large de la France pour établir une filière IA compétitive face aux États-Unis et à la Chine. Mistral, fondée en 2023 par d'anciens chercheurs de Google DeepMind et Meta, a déjà levé plus d'un milliard d'euros en capital-risque. Le choix de Bruyères-le-Châtel — site historique du Commissariat à l'énergie atomique — et le recours à la dette bancaire signalent une ambition industrielle durable, au-delà du modèle startup classique.

UEMistral AI construit un datacenter souverain de 44 MW en Essonne avec 13 800 GPU Nvidia, offrant aux entreprises et administrations françaises une infrastructure IA localisée sur le sol national.

💬 722 millions en dette bancaire, c'est plus le modèle startup classique, c'est de l'industrie lourde. Mistral est en train de faire ce que personne en Europe n'avait osé faire aussi franchement : s'endetter comme un opérateur télécom pour aller chercher la puissance de calcul. Reste à voir si les clients publics et privés suivront assez vite pour que les remboursements ne deviennent pas le vrai sujet dans 18 mois.

InfrastructureActu
1 source
Mistral AI lance Voxtral TTS : un modèle vocal open-weight de 4 milliards de paramètres pour la génération vocale multilingue en temps réel
48MarkTechPost 

Mistral AI lance Voxtral TTS : un modèle vocal open-weight de 4 milliards de paramètres pour la génération vocale multilingue en temps réel

Mistral AI a lancé Voxtral TTS, son premier modèle de synthèse vocale en poids ouverts, marquant l'entrée officielle de la startup française dans la génération audio. Publié sous licence CC BY-NC, le modèle repose sur une architecture hybride de 4 milliards de paramètres répartis en trois composants distincts : un décodeur Transformer de 3,4 milliards de paramètres basé sur l'architecture Ministral pour la compréhension du texte, un transformeur acoustique à flux de 390 millions de paramètres pour convertir les représentations sémantiques en caractéristiques sonores, et un codec neural de 300 millions de paramètres pour restituer une forme d'onde audio haute fidélité. Le modèle supporte neuf langues nativement — anglais, français, allemand, espagnol, néerlandais, portugais, italien, hindi et arabe — avec une attention portée aux dialectes régionaux et à la prosodie locale. Il permet également le clonage vocal zero-shot à partir de seulement trois secondes d'audio de référence. Les performances annoncées positionnent Voxtral TTS comme une alternative sérieuse aux API vocales propriétaires : le modèle atteint une latence de 70 millisecondes pour un échantillon de dix secondes (500 caractères en entrée), et un facteur temps réel d'environ 9,7x, ce qui signifie qu'il génère de l'audio près de dix fois plus vite que la durée de parole produite. Pour les développeurs qui construisent des agents conversationnels, des systèmes de traduction simultanée ou des interfaces vocales à fort trafic, cela se traduit par une réduction concrète des coûts de calcul et la capacité à absorber des charges élevées sur du matériel d'inférence standard. La séparation entre couche sémantique et couche acoustique garantit par ailleurs une cohérence sur de longs passages tout en préservant les nuances fines de la voix. Voxtral TTS s'inscrit dans une stratégie cohérente de Mistral : compléter sa pile technologique couche par couche, après ses modèles de transcription et de langage, pour proposer désormais l'ensemble du pipeline audio en open-weight. Face à des API fermées comme celles d'OpenAI ou ElevenLabs, l'offre de Mistral mise sur la souveraineté des données et l'absence de dépendance tarifaire — un argument qui résonne particulièrement auprès des entreprises européennes soumises au RGPD. La capacité d'adaptation vocale par few-shot ouvre également la voie à des expériences personnalisées à grande échelle, des voix de marque cohérentes aux assistants localisés, sans recourir à des phases de fine-tuning coûteuses. La prochaine étape logique pour Mistral serait d'intégrer Voxtral TTS dans une offre unifiée speech-to-speech, complétant le cycle entrée-sortie audio de bout en bout.

UEMistral AI, startup française, lance son premier modèle vocal open-weight, offrant aux entreprises européennes une alternative souveraine aux API fermées pour la synthèse vocale, sans dépendance tarifaire et conforme au RGPD.

LLMsOpinion
1 source
OVHcloud mise sur l’IA générative avec le rachat de Dragon LLM
49Le Big Data 

OVHcloud mise sur l’IA générative avec le rachat de Dragon LLM

OVHcloud a annoncé le 25 mars 2026 le rachat de Dragon LLM, entreprise française spécialisée en intelligence artificielle générative, anciennement connue sous le nom de Lingua Custodia. Il s'agit de la première acquisition d'OVHcloud dans le domaine de l'IA, après des années de prudence vis-à-vis des modèles de langage et des fermes de GPU. L'objectif affiché est la création d'un « AI Lab » interne dédié à l'entraînement et à l'affinage de grands modèles de langage souverains. Dragon LLM apporte une expertise rare : la société a notamment remporté le Large AI Grand Challenge de la Commission européenne, en entraînant un modèle de 3,6 milliards de paramètres sur les supercalculateurs Leonardo et Jupiter, et a affiné des LLM open weight comme Llama 3.1 et Qwen 3 jusqu'à 70 milliards de paramètres avec des données financières spécialisées. Parmi ses clients figurent BNP Paribas, Crédit Agricole et Natixis, qui utilisent sa plateforme Verto — un outil combinant traduction, vérification de documents complexes et assistance aux appels d'offres via un système RAG. Ce rachat marque un virage stratégique clair pour OVHcloud, qui sort de sa réserve pour s'imposer comme acteur de l'IA souveraine européenne. En intégrant Dragon LLM, le groupe peut désormais proposer des services d'IA générative capables de traiter des données sensibles, déployables aussi bien dans le cloud que sur les infrastructures privées des entreprises. C'est une réponse directe aux besoins des secteurs réglementés — finance, santé, juridique — qui exigent des garanties strictes sur la localisation et la confidentialité des données. Pour les clients existants de Dragon LLM, l'intégration au sein d'un acteur majeur du cloud européen réduit les risques inhérents à une startup indépendante et ouvre l'accès à une infrastructure plus robuste, même si des adaptations techniques pourraient être nécessaires à terme. Fondée en 2011 comme spécialiste de la traduction automatisée de documents financiers, Dragon LLM avait progressivement pivoté vers l'IA générative, développant ses propres modèles dans des domaines techniques pointus. Ce rachat s'inscrit dans une dynamique plus large d'acquisitions stratégiques pour OVHcloud, qui avait déjà absorbé Seald en février 2026, expert français du chiffrement de bout en bout. En Europe, les entreprises capables de concevoir et d'affiner des LLM performants restent rares — Mistral AI, Aleph Alpha et Silo AI font partie du même cercle restreint. OVHcloud, qui présentera ses résultats financiers le 9 avril, n'a pas encore précisé le devenir des services Dragon LLM ni les montants de l'opération, mais la direction est claire : bâtir une alternative européenne crédible face aux géants américains du cloud et de l'IA.

UEOVHcloud intègre Dragon LLM pour proposer des LLM souverains entraînés en Europe, offrant aux secteurs réglementés français (finance, santé, juridique) des garanties de localisation et de confidentialité des données conformes aux exigences du RGPD et de l'AI Act.

💬 Pendant qu'OpenAI, Anthropic et Google se partagent le marché de l'IA générative, OVHcloud vient de faire sa première acquisition dans le secteur : Dragon LLM, une pépite française discrète qui a entraîné des LLM sur les supercalculateurs européens Leonardo et Jupiter, et qui compte BNP Paribas, Crédit Agricole et Natixis parmi ses clients. Ce n'est pas un coup de com'. C'est un pari industriel clair : positionner OVHcloud comme le socle d'une IA souveraine européenne — celle que les banques, les hôpitaux et les cabinets juridiques peuvent utiliser sans envoyer leurs données outre-Atlantique. L'ironie ? Dragon LLM reste modeste face aux mastodontes américains. Mais c'est précisément là que réside l'opportunité : les secteurs réglementés n'ont pas besoin du modèle le plus puissant du monde. Ils ont besoin du modèle le plus sûr — hébergé en Europe, auditable, conforme au RGPD. Un tiers de la croissance américaine en 2025 vient de l'IA. L'Europe a pris du retard. Mais des décisions comme celle-ci suggèrent que la fenêtre n'est pas encore fermée. La question n'est plus "peut-on rattraper les Américains ?" — mais "sur quel terrain l'Europe peut-elle gagner ?"

BusinessOpinion
1 source
Mistral AI lance un modèle de synthèse vocale qui surpasse ElevenLabs, disponible en open source
50VentureBeat AI 

Mistral AI lance un modèle de synthèse vocale qui surpasse ElevenLabs, disponible en open source

Mistral AI a lancé jeudi matin Voxtral TTS, son premier modèle de synthèse vocale de qualité frontier, avec une particularité radicale : les poids du modèle sont publiés en open source, téléchargeables et utilisables sans jamais envoyer le moindre audio vers un serveur tiers. La startup parisienne, valorisée 13,8 milliards de dollars après une levée de 2 milliards en série C menée par le fabricant de puces néerlandais ASML en septembre dernier, affirme que son modèle surpasse ElevenLabs sur les benchmarks de qualité vocale. Techniquement, Voxtral TTS repose sur trois composants : un transformeur décodeur de 3,4 milliards de paramètres, un transformeur acoustique de 390 millions de paramètres basé sur le flow-matching, et un codec audio neuronal de 300 millions de paramètres développé en interne. Le tout tient en 3 gigaoctets de RAM une fois quantifié, produit de l'audio en 90 millisecondes pour une entrée typique, et génère la parole à six fois la vitesse temps réel. Il tourne sur n'importe quel laptop ou smartphone, y compris sur du matériel vieillissant. Le modèle couvre neuf langues — anglais, français, allemand, espagnol, néerlandais, portugais, italien, hindi et arabe — et peut cloner une voix à partir de seulement cinq secondes d'audio de référence. L'enjeu est considérable : le marché mondial de la voix IA a dépassé 22 milliards de dollars en 2026, et le seul segment des agents vocaux est projeté à 47,5 milliards d'ici 2034. Jusqu'ici, ce marché est dominé par des acteurs propriétaires — ElevenLabs, Google Cloud avec Chirp 3, OpenAI — qui vendent l'accès à leurs modèles via API : les entreprises louent la voix, elles ne la possèdent pas. Mistral propose le modèle inverse : télécharger les poids, déployer en local, garder un contrôle total sur les données audio. Pour les secteurs soumis à des contraintes de confidentialité strictes — finance, santé, défense — c'est une proposition fondamentalement différente. Voxtral TTS s'inscrit dans une stratégie cohérente que Mistral construit pièce par pièce depuis plusieurs mois. La startup a lancé Voxtral Transcribe (speech-to-text) quelques semaines plus tôt, sa plateforme de personnalisation Forge lors de la conférence Nvidia GTC début mars, et son infrastructure de production AI Studio. L'objectif affiché est de permettre aux entreprises de faire tourner un pipeline audio complet — de la voix à la voix — sans dépendre d'aucun fournisseur externe. « Nous voyons l'audio comme un grand pari, et probablement la seule interface future avec tous les modèles d'IA », a déclaré Pierre Stock, vice-président science et premier employé de Mistral, dans une interview exclusive à VentureBeat. Dans un marché où ElevenLabs vient d'annoncer une collaboration avec IBM pour intégrer ses voix dans la plateforme watsonx Orchestrate, Mistral choisit de jouer la carte de la souveraineté plutôt que celle du service managé — un pari sur le fait que les grandes entreprises préféreront, à terme, la maîtrise à la commodité.

UEMistral AI, startup parisienne, offre aux entreprises françaises et européennes une solution TTS souveraine déployable en local, répondant directement aux contraintes de confidentialité des secteurs régulés (finance, santé, défense) sans dépendance aux fournisseurs API américains.

💬 La vraie info c'est pas les benchmarks face à ElevenLabs, c'est qu'on télécharge les poids et ça tourne en local, sans qu'une seule seconde d'audio quitte ta machine. C'était le verrou pour tout le secteur régulé, finance, santé, défense, qui ne peut pas se permettre d'envoyer ses données vocales à San Francisco. Je pensais que Mistral mettrait plus de temps, mais là ils posent les briques vite.

LLMsActu
1 source