Aller au contenu principal

Dossier Souveraineté IA — page 2

135 articles · page 2 sur 3

La bataille pour la souveraineté IA : Mistral, OVHcloud Dragon LLM, infrastructure souveraine européenne et alternatives au cloud américain.

Agents IA autonomes : les meilleurs outils à installer en local sur son PC
51Le Big Data OutilsOutil

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

1 source
Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »
52La Tribune 

Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »

Neil Zeghidour, directeur général de Gradium, a pris la parole lors de la conférence Tech For Future pour exposer la vision de sa société, récemment implantée dans l'écosystème parisien de l'intelligence artificielle. Sa mission : constituer une équipe de recherche d'élite pour développer des modèles vocaux capables de rivaliser avec les grandes plateformes américaines. Pour attirer ces profils rares, il revendique une approche singulière, comparant la gestion de ses chercheurs en IA à celle de footballeurs professionnels, des talents à recruter, fidéliser et placer dans les meilleures conditions pour performer. L'enjeu derrière cette métaphore est concret : le marché des chercheurs spécialisés en IA est d'une compétition féroce, avec une poignée d'experts mondiaux se disputés par des géants comme Google, OpenAI ou Meta, capables d'offrir des compensations considérables. Gradium parie sur la voix comme vecteur de différenciation, un segment en croissance exponentielle porté par les assistants conversationnels, l'accessibilité et les interfaces multimodales. Construire des modèles vocaux performants en Europe représente un défi technique autant qu'économique, mais aussi une opportunité stratégique face à la dépendance actuelle aux infrastructures et modèles américains. La démarche de Gradium s'inscrit dans une dynamique plus large : celle de la souveraineté numérique européenne en matière d'IA. Zeghidour insiste sur la nécessité d'entraîner des modèles localement, sur des données et des infrastructures européennes, pour ne pas rester tributaires des choix des acteurs américains. Dans un contexte où la régulation européenne (AI Act) pousse les entreprises à davantage de transparence et de contrôle, des acteurs comme Gradium tentent de transformer cette contrainte en avantage compétitif.

UEGradium, startup française basée à Paris, développe des modèles vocaux sur infrastructures européennes pour réduire la dépendance aux plateformes américaines, s'appuyant sur l'AI Act comme levier de différenciation compétitive.

BusinessOpinion
1 source
L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups
53The Information AI 

L'enquête chinoise sur le rachat de Manus par Meta inquiète les startups

Le gouvernement chinois a ouvert une enquête sur la vente de la startup d'agents IA Manus à Meta Platforms, provoquant une onde de choc dans l'écosystème des startups d'intelligence artificielle en Chine. Cette investigation, dont les détails précis restent flous, cible une transaction qui représentait pour de nombreux fondateurs un débouché naturel : être rachetés par un géant technologique américain. Hank Yuan, co-fondateur d'une nouvelle startup basée à Shenzhen qui développe un agent IA pour le marché mondial, résume le sentiment général : « Tous les fondateurs de startups IA que je connais suivent l'affaire Manus de très près. » L'impact est immédiat et concret. Plusieurs startups envisagent désormais de déplacer tout ou partie de leurs opérations vers Singapour, ou de quitter la Chine entièrement. Le choix du financement devient aussi une question stratégique brûlante : lever des fonds en yuan chinois ou en dollars américains implique désormais des conséquences géopolitiques directes sur la capacité à vendre à l'international ou à attirer des investisseurs américains. Comme le formule Yuan, les fondateurs doivent « réfléchir encore plus soigneusement aux marchés visés, à la structure juridique de leur entreprise et à la devise dans laquelle lever des fonds ». Les startups dont l'ambition se limite au marché chinois, financées par du capital-risque local ou asiatique, sont moins exposées à ces tensions. Cette affaire s'inscrit dans une rivalité technologique sino-américaine de plus en plus intense, où les acquisitions transfrontalières d'entreprises IA deviennent des enjeux de souveraineté nationale. Pékin surveille de près les transferts de technologie vers des entreprises américaines, notamment dans le domaine de l'IA agentique, considéré comme stratégique. Pour les fondateurs chinois qui cherchent une sortie vers les grands groupes de la Silicon Valley, la fenêtre se resserre. Singapour, hub neutre entre les deux blocs, s'impose comme la destination de repli privilégiée pour ceux qui veulent préserver à la fois un accès aux marchés occidentaux et une base opérationnelle en Asie.

UELes tensions géopolitiques sino-américaines autour des acquisitions d'IA pourraient inciter l'UE à renforcer sa propre surveillance des transferts technologiques transfrontaliers impliquant des startups chinoises.

BusinessOpinion
1 source
Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul
54Le Big Data 

Bientôt la fin des patrouilles humaines ? Ce robot français fait des rondes tout seul

Running Brains Robotics, une PME implantée à Mérignac en région bordelaise, s'impose progressivement sur le marché européen de la surveillance autonome avec ses robots patrouilleurs entièrement conçus en France. La société a développé deux modèles complémentaires : le GR100, déjà déployé sur plusieurs sites, et le GR200, conçu pour les environnements difficiles et le tout-terrain. Ces machines effectuent des rondes continues sur des sites sensibles, analysant portes, clôtures et mouvements suspects, lisant des plaques d'immatriculation, détectant des fuites et remontant les anomalies en temps réel vers un centre de supervision. Les robots alternent entre missions actives et recharge rapide, restant connectés en permanence même à l'arrêt. La société est déjà opérationnelle en France et en Italie, où elle a notamment décroché un déploiement au sein du groupe Leonardo, acteur majeur de l'aéronautique et de la défense européenne, pour surveiller des infrastructures sensibles. Ce type de système redéfinit l'organisation des équipes de sécurité sur site. Les robots prennent en charge les tâches répétitives de contrôle et de ronde, libérant les opérateurs humains pour se concentrer sur les interventions à plus forte valeur ajoutée, c'est-à-dire l'analyse et la décision finale. Les machines ne remplacent pas les forces de sécurité et n'interviennent pas directement en cas d'infraction : elles collectent et transmettent les données, les humains agissent. Pour les sites industriels, les ports, les aéroports ou les installations critiques, l'intérêt est double : une couverture 24h/24 sans fatigue ni absence, et une réduction des coûts opérationnels sur les missions à faible valeur ajoutée. Les déploiements en conditions réelles chez Leonardo valident l'efficacité opérationnelle de l'approche, un signal fort pour convaincre d'autres grands groupes industriels. Running Brains Robotics se distingue par une maîtrise intégrale de sa chaîne technologique, de la conception mécanique aux algorithmes de navigation et de détection, sans dépendance envers des fournisseurs extérieurs. Ce positionnement souverain prend une résonance particulière dans un contexte européen où la sécurité des infrastructures critiques est au coeur des préoccupations stratégiques. La robotique de surveillance est un marché en pleine expansion, avec des acteurs américains, asiatiques et israéliens déjà bien installés, et l'émergence d'une solution 100% française répond à des enjeux de souveraineté industrielle que les grandes entreprises et les gouvernements commencent à prendre en compte dans leurs appels d'offres. La montée en puissance annoncée d'ici 2028 suggère que la société compte accélérer son développement commercial en Europe, portée par des références industrielles crédibles et un positionnement technologique différenciant.

UEUne PME française propose une solution souveraine de surveillance autonome déjà déployée chez Leonardo pour protéger des infrastructures critiques européennes, répondant aux enjeux de souveraineté industrielle dans les appels d'offres publics et privés en France et en UE.

RobotiqueOpinion
1 source
MyUnisoft : la protection des données au cœur du choix des logiciels comptables
55Le Big Data 

MyUnisoft : la protection des données au cœur du choix des logiciels comptables

Une enquête réalisée par OpinionWay pour le compte de MyUnisoft, éditeur français de logiciel comptable, révèle que 70 % des professionnels de l'expertise comptable utilisent désormais l'intelligence artificielle dans leur travail quotidien. Parmi eux, 70 % se tournent prioritairement vers ChatGPT, l'outil d'OpenAI, principalement pour la recherche d'informations expertes et le traitement de dossiers complexes. L'étude montre également que 83 % des décideurs du secteur placent la protection et la localisation des données au sommet de leurs critères de sélection d'un logiciel, devant le prix ou les fonctionnalités pures. L'ergonomie reste le critère numéro un pour 89 % des cabinets interrogés, tandis que 31 % des professionnels n'ont pas encore adopté l'IA, souvent par prudence ou par manque d'accompagnement. Grégoire Leclercq, dirigeant de MyUnisoft, souligne que cette transformation marque une prise de conscience collective des experts-comptables sur leur rôle de gardiens des données financières de leurs clients. Ces résultats traduisent un changement structurel dans la façon dont les cabinets d'expertise comptable évaluent leurs outils technologiques. La souveraineté des données n'est plus un argument marketing secondaire : c'est une barrière à l'entrée réelle. Les professionnels refusent désormais de dépendre de solutions dont l'hébergement serait soumis à des législations extra-européennes ou dont les flux de données resteraient opaques. Pour les éditeurs, cela signifie qu'un stockage local, certifié et transparent devient une condition non négociable pour rester dans la course. Parallèlement, l'usage massif de ChatGPT comme super-assistant documentaire confirme que l'IA ne remplace pas le comptable, mais comprime drastiquement le temps passé sur des tâches à faible valeur ajoutée, libérant de la bande passante pour le conseil. Le secteur de la comptabilité française entre dans une phase où l'automatisation des tâches basiques est considérée comme acquise, et où la compétition se déplace vers la capacité à transformer la donnée en aide à la décision stratégique. Les cabinets attendent de leurs éditeurs qu'ils franchissent un cap : passer du statut de fournisseur de logiciel fiable à celui de partenaire de performance. L'interopérabilité entre systèmes et la capacité à intégrer nativement des fonctionnalités d'IA, sans sacrifier l'ergonomie, deviennent les nouveaux axes de différenciation. MyUnisoft, qui se positionne explicitement sur la souveraineté numérique et l'hébergement français, publie cette étude dans un contexte de consolidation du marché des logiciels comptables, où les acteurs qui ne répondront pas à ces exigences risquent de perdre rapidement leur légitimité auprès d'une clientèle professionnelle de plus en plus avertie.

UELes cabinets d'expertise comptable français placent la souveraineté des données et l'hébergement local en tête de leurs critères de sélection logicielle, renforçant l'avantage concurrentiel des éditeurs français conformes au RGPD face aux solutions hébergées hors UE.

SociétéOutil
1 source
On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?
56Numerama 

On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?

Apple a lancé début 2025 son MacBook Pro équipé de la puce M5 Pro, disponible à partir de 3 199 euros dans sa configuration 48 Go de RAM unifée. La version haut de gamme, le M5 Max avec 128 Go de mémoire, monte jusqu'à 6 429 euros sans augmentation du stockage. Des journalistes tech ont soumis cette machine à des tests intensifs de LLM locaux, faisant tourner des modèles open source tels que Mistral, DeepSeek, les modèles Alibaba Qwen et plusieurs variantes Google Gemma directement sur le matériel, sans connexion cloud. Ce type de configuration intéresse de plus en plus les développeurs, chercheurs et professionnels qui veulent exécuter des modèles de langage en local pour des raisons de confidentialité, de latence ou de coût. La mémoire unifiée des puces Apple Silicon est une architecture particulièrement adaptée à ce cas d'usage : contrairement aux PC classiques où la RAM et la VRAM sont séparées, le CPU et le GPU partagent le même pool mémoire, ce qui permet de charger entièrement des modèles de 30 à 70 milliards de paramètres sans swap. Les résultats des tests montrent des vitesses d'inférence utilisables au quotidien, loin derrière un GPU NVIDIA haut de gamme mais suffisantes pour un workflow professionnel autonome. Cette tendance s'inscrit dans un mouvement plus large de démocratisation de l'IA locale, accéléré par la sortie de modèles open source performants et compacts. Des acteurs comme Mistral AI, DeepSeek ou Alibaba proposent désormais des versions quantisées de leurs modèles optimisées pour ce type de matériel. Face aux interrogations croissantes sur la souveraineté des données et la dépendance aux API cloud, le couple Apple Silicon + ollama ou LM Studio s'impose comme une alternative crédible pour les professionnels prêts à investir plusieurs milliers d'euros dans une machine autonome.

UELa tendance à l'IA locale répond aux préoccupations européennes de souveraineté des données, et Mistral AI figure parmi les modèles open source testés sur ce type de matériel.

💬 Le M5 Pro 48 Go, c'est le premier Mac où je me dis que l'IA locale est devenue praticable sans compromis majeur. Tu charges un modèle de 30 à 70 milliards de paramètres, ça tourne sur la même mémoire que le reste, pas de swap, pas de GPU externe à brancher. 3 200 euros de base, c'est cher, et la vitesse d'inférence reste loin d'un bon GPU NVIDIA, mais pour du travail autonome sur des données confidentielles, j'ai du mal à voir mieux dans ce format.

InfrastructureActu
1 source
IA et généalogie : un assistant puissant, mais jamais le chef d’orchestre
57Le Big Data 

IA et généalogie : un assistant puissant, mais jamais le chef d’orchestre

François Lerebourg, PDG de CDIP et créateur du logiciel Généatique 2026, intègre l'intelligence artificielle au cœur de sa suite généalogique pour automatiser les tâches les plus fastidieuses : transcription paléographique de manuscrits anciens, traduction de documents en latin ou en allemand gothique, identification des métiers d'ancêtres, colorisation de photographies d'époque. Concrètement, l'utilisateur scanne un acte notarial ou un registre paroissial, et l'IA produit une première transcription en signalant les zones d'incertitude par une croix rouge dans le texte restitué. La colorisation de photos s'effectue à la demande, sans altération des pixels originaux, même si l'algorithme peut proposer une teinte de peau que l'utilisateur est libre de corriger. Les traitements passent par le cloud mais les données sont effacées après téléchargement, une architecture pensée pour protéger des informations personnelles sensibles. L'impact est considérable pour les millions d'amateurs de généalogie, souvent des retraités qui passaient jusqu'ici des dizaines d'heures à déchiffrer des écritures illisibles ou à trier des archives papier. Lerebourg parle d'une révolution comparable à l'arrivée du web il y a trente ans : la barrière technique qui décourageait les novices s'effondre, rendant la discipline accessible à un public beaucoup plus large. Le modèle revendiqué est celui du « compagnonnage numérique » plutôt que de l'automatisation totale : l'IA libère du temps pour ce qui a de la valeur, c'est-à-dire vérifier les sources, croiser les indices et construire un récit cohérent. La démocratisation de la généalogie passe ainsi par une redistribution du travail entre machine et humain, où la machine absorbe l'ingrat et l'humain conserve le jugement. Cette approche s'inscrit dans un moment charnière pour les logiciels patrimoniaux, confrontés à des outils d'IA générative dont les hallucinations et les confusions entre homonymes restent des risques réels. Lerebourg ne les minimise pas : des prompts soigneusement conçus et une sélection rigoureuse des modèles permettent de limiter les erreurs, mais la validation humaine reste non négociable. La question de la souveraineté des données personnelles est également centrale dans un secteur qui manipule des informations intimes, noms, dates, lieux de naissance, filiations, et où la confiance des utilisateurs est le premier actif. L'enjeu pour Généatique 2026 et ses concurrents est de montrer qu'une IA utile n'est pas une IA autonome, et que la valeur ajoutée tient précisément dans la capacité à savoir où s'arrêter.

UECDIP est une entreprise française et Généatique 2026 s'adresse directement aux généalogistes francophones, avec une architecture cloud effaçant les données après traitement, pensée pour répondre aux exigences du RGPD.

OutilsOutil
1 source
OpenClaw vs ChatGPT : quel agent IA local bat le roi du cloud ?
58Le Big Data 

OpenClaw vs ChatGPT : quel agent IA local bat le roi du cloud ?

En 2026, le débat entre agents IA locaux et solutions cloud a pris une nouvelle dimension avec l'émergence d'OpenClaw, un agent dit "skills-based" qui s'exécute directement sur la machine de l'utilisateur. Contrairement à ChatGPT Agent, le mode Operator d'OpenAI lancé dans le courant de l'année, OpenClaw accède au terminal, manipule les fichiers locaux, gère les dépôts Git et peut tourner en arrière-plan même session fermée, envoyant des notifications sur Discord à la fin d'une tâche. ChatGPT Agent fonctionne lui exclusivement dans le navigateur : l'IA clique, défile et remplit des formulaires à la place de l'utilisateur, mais s'arrête dès que l'onglet est fermé. Sur le plan tarifaire, OpenClaw revient à environ 10 à 30 dollars par mois selon la consommation d'API, contre 20 dollars fixes pour l'abonnement ChatGPT Plus incluant l'accès au mode Operator. La différence fondamentale entre les deux approches tient à la souveraineté des données et à la flexibilité technique. Avec OpenClaw, l'utilisateur choisit lui-même ses modèles, Claude 3.5 pour les raisonnements complexes, Llama 3 ou Kimi pour les tâches répétitives, afin d'optimiser ses coûts, tandis que ChatGPT impose l'écosystème OpenAI sans possibilité de substitution. La mémoire d'OpenClaw est persistante via des fichiers stockés sur disque ; celle de ChatGPT Agent est éphémère, réinitialisée à chaque session. Pour les professionnels qui valorisent l'intégration profonde dans leur environnement de travail, scripts actifs, assets locaux, automatisations conditionnelles, l'agent local représente un levier que le cloud ne peut pas reproduire. Nvidia a par ailleurs introduit NemoClaw, une couche de sécurité greffable sur OpenClaw pour encadrer les actions de l'agent et prévenir les comportements non désirés, comblant l'un des reproches traditionnels faits aux solutions locales. Ce duel s'inscrit dans un basculement plus large du marché de l'IA : on ne parle plus de simples chatbots, mais d'agents capables d'agir de manière autonome sur des systèmes réels. OpenAI a misé sur l'accessibilité maximale avec une interface sans friction, au prix d'un contrôle réduit pour l'utilisateur. OpenClaw, porté par une communauté technique exigeante, répond à un besoin croissant de confidentialité et d'autonomie, notamment dans les secteurs sensibles, finance, santé, défense, où héberger des données sur des serveurs tiers reste rédhibitoire. La vraie question pour 2026 n'est donc pas laquelle des deux IA est "plus intelligente", mais laquelle correspond au niveau de contrôle et de confiance que chaque utilisateur est prêt à exercer sur ses outils numériques.

UELa souveraineté des données mise en avant par OpenClaw répond aux exigences du RGPD et aux contraintes des secteurs réglementés en France et en UE (finance, santé, défense), où l'hébergement tiers reste problématique.

OutilsOutil
1 source
IA et quantique en zone nordique : un écosystème industriel mûr, ouvert aux innovations françaises
59FrenchWeb 

IA et quantique en zone nordique : un écosystème industriel mûr, ouvert aux innovations françaises

Les pays nordiques s'imposent comme un laboratoire avancé de l'IA et du quantique à l'échelle européenne. Un centre nordique dédié à l'intelligence artificielle vient d'être lancé, accompagné de financements ciblés sur la numérisation industrielle et l'adoption de l'IA dans les grands secteurs productifs. Les entreprises technologiques françaises sont explicitement citées parmi les acteurs bienvenus pour s'intégrer à cet écosystème en pleine structuration. L'enjeu dépasse la simple vitrine technologique : les grands comptes nordiques, industrie manufacturière, énergie, logistique, cherchent des solutions quantiques et d'IA "prêtes à intégrer", c'est-à-dire opérationnelles, documentées et compatibles avec leurs systèmes existants. Ce signal est fort pour les startups et ETI françaises spécialisées, qui peuvent y trouver des clients industriels solvables et des partenaires capables de valider leurs technologies en conditions réelles, bien avant une mise à l'échelle européenne. Cette dynamique s'inscrit dans un tournant stratégique européen autour de la souveraineté technologique, où les pays nordiques jouent un rôle moteur grâce à une culture industrielle forte, des États investisseurs et une densité de talents en ingénierie. La France, de son côté, dispose d'acteurs reconnus en calcul quantique, notamment via le Plan Quantique doté de 1,8 milliard d'euros depuis 2021, et en IA appliquée. La convergence entre l'offre française et la demande nordique représente une fenêtre d'internationalisation concrète, à condition d'adapter les solutions aux exigences d'intégration industrielle des acheteurs scandinaves.

UELe lancement d'un centre nordique dédié à l'IA ouvre une fenêtre concrète d'internationalisation pour les startups et ETI françaises spécialisées en IA et quantique, dans la continuité du Plan Quantique doté de 1,8 milliard d'euros.

BusinessOpinion
1 source
Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon
60AI Business 

Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon

Microsoft a annoncé un investissement de 10 milliards de dollars au Japon, destiné au développement de l'intelligence artificielle et de la cybersécurité dans le pays. Cette enveloppe, l'une des plus importantes jamais engagées par le géant américain dans une seule région, sera déployée sur plusieurs années pour renforcer les infrastructures cloud, les centres de données et les capacités de défense numérique sur le territoire japonais. Cet investissement massif répond à une demande croissante des entreprises et administrations japonaises en matière de solutions IA souveraines et sécurisées. Pour le Japon, qui cherche activement à rattraper son retard numérique face à ses voisins asiatiques, l'arrivée de cette infrastructure représente un levier concret de modernisation industrielle et de renforcement de sa résilience face aux cybermenaces, en nette augmentation dans la région. Cet engagement s'inscrit dans une vague plus large d'investissements technologiques de Microsoft en Asie : l'entreprise a récemment annoncé des engagements similaires en Thaïlande et à Singapour. Cette stratégie régionale reflète la compétition acharnée entre les grands acteurs du cloud — Amazon, Google et Microsoft — pour s'imposer comme partenaires de confiance des gouvernements et grandes entreprises asiatiques à l'heure de l'accélération de l'IA.

InfrastructureActu
1 source
Onyx : une alternative à Claude, plus puissante, open-source et locale ?
61Le Big Data 

Onyx : une alternative à Claude, plus puissante, open-source et locale ?

Onyx est une plateforme d'intelligence artificielle open source qui a franchi le cap des 20 000 étoiles sur GitHub début avril 2026, attirant l'attention des équipes techniques à la recherche d'alternatives aux solutions propriétaires comme Claude d'Anthropic. Conçue pour s'installer en self-hosting via Docker, elle fonctionne comme une couche d'orchestration complète : elle se connecte à plus de 40 sources de données d'entreprise (stockage, messagerie, gestion de projet), indexe les contenus en continu et dialogue avec n'importe quel LLM, qu'il s'agisse de modèles cloud, d'API externes ou de modèles tournant entièrement en local. Sur les benchmarks de recherche approfondie, Onyx affiche des scores supérieurs à plusieurs solutions propriétaires, en combinant recherche sémantique, indexation permanente et exploration web intégrée pour produire des réponses contextualisées et traçables. L'enjeu concret est la souveraineté technologique des organisations. En permettant de choisir librement le modèle sous-jacent selon chaque usage et d'optimiser les coûts sans dépendre d'un fournisseur unique, Onyx élimine le risque de verrouillage propriétaire qui préoccupe de nombreux DSI et responsables de la sécurité informatique. Les réponses ne reposent plus sur des données d'entraînement génériques, mais sur les documents internes réels de l'entreprise, synchronisés en temps réel. Dans des environnements professionnels où chaque réponse doit être justifiable et auditable, cette traçabilité représente un avantage opérationnel direct. L'outil "Craft" intégré pousse la logique plus loin : il permet de générer non seulement des documents, mais aussi des tableaux de bord, des applications web et des visualisations à partir des données internes, dans des environnements isolés garantissant la confidentialité. Le lancement d'Onyx s'inscrit dans une dynamique plus large de professionnalisation de l'IA open source, portée par des projets comme LangChain, Ollama ou LlamaIndex, qui ont progressivement rendu accessibles des capacités jusqu'alors réservées aux grandes plateformes cloud. Face à la montée en puissance de Claude, GPT-4o et Gemini, une partie de l'écosystème technique cherche à construire des infrastructures IA qui restent sous contrôle de l'organisation. Onyx mise sur la dimension collaborative pour se différencier davantage : la plateforme gère des rôles, des accès granulaires et des agents automatisés configurables avec des règles précises, la rapprochant d'un système applicatif complet plutôt que d'un simple assistant conversationnel. La prochaine étape pour le projet sera de démontrer sa robustesse à l'échelle dans des environnements de production critiques, un terrain où les solutions propriétaires conservent encore une avance significative en matière de support et de garanties contractuelles.

UELes organisations européennes soucieuses de souveraineté numérique et de conformité RGPD peuvent déployer Onyx en self-hosting pour garder leurs données internes hors des clouds américains.

OutilsOutil
1 source
Microsoft étend son offre IA avec de nouveaux modèles vocaux et visuels
62AI Business 

Microsoft étend son offre IA avec de nouveaux modèles vocaux et visuels

Microsoft franchit une nouvelle étape dans le développement de ses propres modèles d'intelligence artificielle en annonçant des systèmes dédiés à la voix et à l'image, allant au-delà des grands modèles de langage textuels sur lesquels la firme de Redmond s'est largement appuyée jusqu'ici. Cette initiative marque une volonté affichée de maîtriser l'ensemble de la chaîne des capacités d'IA, plutôt que de sous-traiter ces briques à des partenaires externes. L'enjeu est considérable pour l'industrie : en développant ses propres modèles vocaux et visuels, Microsoft réduit sa dépendance vis-à-vis d'OpenAI, dont il est le principal investisseur et distributeur via Azure. Cela lui permettrait de proposer des solutions plus intégrées, moins coûteuses et plus personnalisables pour ses clients entreprises, tout en gardant la main sur la roadmap technologique de ses produits phares comme Copilot. Cette évolution s'inscrit dans une tendance plus large de verticalisation de l'IA au sein des grandes plateformes technologiques : Google, Apple et Amazon ont chacun suivi une trajectoire similaire. La relation entre Microsoft et OpenAI, longtemps présentée comme un partenariat exclusif, montre ainsi ses limites stratégiques à mesure que l'IA devient un avantage concurrentiel central. La course à la souveraineté sur les modèles fondamentaux ne fait que commencer.

UELes entreprises françaises et européennes utilisant Azure pourraient accéder à des modèles vocaux et visuels plus intégrés et compétitifs, réduisant leur dépendance indirecte à OpenAI.

OutilsOpinion
1 source
IBM publie Granite 4.0 3B Vision : un modèle de langage visuel pour l'extraction de données documentaires en entreprise
63MarkTechPost 

IBM publie Granite 4.0 3B Vision : un modèle de langage visuel pour l'extraction de données documentaires en entreprise

IBM a lancé Granite 4.0 3B Vision, un modèle de langage visuel (VLM) conçu spécifiquement pour l'extraction de données documentaires en entreprise. Contrairement aux grands modèles multimodaux monolithiques, ce modèle adopte une architecture modulaire : il se présente sous forme d'adaptateur LoRA d'environ 0,5 milliard de paramètres, conçu pour se greffer sur le modèle de base Granite 4.0 Micro (3,5 milliards de paramètres). Cette configuration permet un déploiement en « double mode » — le modèle texte fonctionne de manière autonome, et le composant visuel n'est activé qu'en cas de besoin. Pour traiter les images haute résolution, le modèle découpe les documents en tuiles de 384×384 pixels via l'encodeur visuel SigLIP2 de Google, tout en conservant une vue globale réduite de l'image. Les tokens visuels sont ensuite injectés dans le modèle de langage en 8 points d'ancrage distincts grâce à l'architecture DeepStack, assurant un alignement précis entre contenu sémantique et mise en page spatiale. En matière de performances, le modèle atteint 85,5 % de correspondance exacte en extraction de paires clé-valeur sur le benchmark VAREX (zéro-shot), et se classe troisième parmi les modèles de 2 à 4 milliards de paramètres sur ce leaderboard en mars 2026. L'enjeu principal de cette sortie est de permettre aux entreprises d'automatiser l'extraction structurée de données à partir de documents complexes — tableaux financiers, graphiques analytiques, formulaires — avec un modèle compact et déployable localement. Là où les grands modèles généralistes sacrifient la précision structurelle au profit de la polyvalence, Granite 4.0 3B Vision est entraîné spécifiquement sur la conversion de graphiques en CSV ou JSON, la reconnaissance de structures de tableaux en HTML, et l'extraction de paires clé-valeur. IBM a notamment utilisé ChartNet, un dataset multimodal à l'échelle du million d'exemples, ainsi qu'une pipeline d'entraînement « guidée par le code » qui aligne le code de génération d'un graphique, son rendu visuel et la table de données sous-jacente. Cette approche permet au modèle de comprendre la relation structurelle entre une représentation visuelle et sa source, plutôt que de simplement décrire une image. Ce lancement s'inscrit dans la stratégie d'IBM de positionner sa gamme Granite comme une alternative open-source et souveraine aux solutions propriétaires de Microsoft, Google ou Anthropic pour les usages entreprise. La tendance à l'architecture modulaire — un socle texte augmenté d'adaptateurs spécialisés — reflète une évolution plus large du secteur vers des modèles efficaces en ressources, déployables sur des infrastructures maîtrisées plutôt que dans le cloud public. Avec la prolifération des obligations réglementaires autour de la traçabilité des données (RGPD, AI Act européen), des modèles capables de traiter des documents sensibles en local représentent un avantage concurrentiel significatif. La prochaine étape pour IBM sera d'intégrer ce composant dans ses pipelines documentaires Watson et de le rendre accessible via watsonx, sa plateforme d'IA d'entreprise.

UELe déploiement local de Granite 4.0 3B Vision facilite la conformité RGPD et AI Act pour les entreprises européennes traitant des documents sensibles, en évitant tout transfert vers le cloud américain.

LLMsOpinion
1 source
Gemma 4 : intelligence multimodale de pointe sur appareil
64HuggingFace Blog 

Gemma 4 : intelligence multimodale de pointe sur appareil

Google DeepMind a lancé Gemma 4, sa nouvelle génération de modèles open source, disponible depuis début avril 2025. Cette famille comprend quatre variantes allant de 1 milliard à 27 milliards de paramètres, toutes capables de traiter texte et images simultanément. Les modèles sont disponibles sur Hugging Face, Google AI Studio et Kaggle, avec des licences permissives autorisant leur usage commercial. La particularité de Gemma 4 réside dans sa capacité multimodale optimisée pour les appareils locaux, depuis les smartphones jusqu'aux ordinateurs personnels, sans dépendance à un serveur distant. Le modèle 27B affiche des performances comparables à des systèmes bien plus volumineux sur les benchmarks de raisonnement et de vision, tandis que le 1B peut tourner directement sur mobile, ouvrant la voie à des applications IA entièrement hors ligne. Cette sortie s'inscrit dans la compétition ouverte qui oppose Google à Meta, Microsoft et Mistral sur le segment des modèles open source embarqués. Depuis Gemma 1 en février 2024, Google a accéléré le rythme de ses publications pour ne pas céder ce terrain stratégique à Llama. La course aux modèles multimodaux légers devient un enjeu central pour l'IA souveraine et les usages professionnels sans connectivité cloud.

UELes modèles embarqués sans dépendance cloud s'alignent avec les exigences d'IA souveraine portées par l'UE, facilitant des déploiements professionnels conformes au RGPD sans transfert de données vers des serveurs tiers.

LLMsOpinion
1 source
DeepL : 83 % des grandes entreprises accusent du retard sur l'IA linguistique
65AI News 

DeepL : 83 % des grandes entreprises accusent du retard sur l'IA linguistique

Selon un rapport publié le 10 mars 2026 par DeepL, intitulé « Borderless Business : Transforming Translation in the Age of AI », 83 % des grandes entreprises n'ont pas encore adopté les outils modernes d'intelligence artificielle pour leurs opérations multilingues. L'étude, menée auprès de dirigeants d'entreprise aux États-Unis, au Royaume-Uni, en France, en Allemagne et au Japon, révèle que 35 % des entreprises internationales traitent encore leurs traductions entièrement manuellement, et 33 % supplémentaires s'appuient sur une automatisation classique avec révision humaine systématique. Seulement 17 % ont déployé des outils de nouvelle génération — grands modèles de langage ou IA agentique — pour leurs flux de travail linguistiques. Parallèlement, le volume de contenu d'entreprise a bondi de 50 % depuis 2023, mais 68 % des sociétés fonctionnent toujours avec des processus conçus pour une autre époque. DeepL compte aujourd'hui plus de 200 000 clients professionnels dans 228 marchés, dont 2 000 qui déploient déjà des agents IA pour l'analyse de rapports, le ciblage commercial et la revue de documents juridiques. Ce retard n'est pas anodin : la traduction et les opérations multilingues touchent des fonctions critiques de l'entreprise. D'après le rapport, l'expansion internationale constitue le premier moteur d'investissement dans l'IA linguistique (33 % des cas), devant les ventes et le marketing (26 %), le support client (23 %) et le juridico-financier (22 %). Une étude complémentaire de décembre 2025, conduite auprès de 5 000 cadres dirigeants, révèle que 54 % des dirigeants mondiaux estiment que la traduction vocale en temps réel sera indispensable en 2026, contre 32 % aujourd'hui — avec des écarts notables entre pays : 48 % au Royaume-Uni, 33 % en France, seulement 11 % au Japon. Pour Jarek Kutylowski, PDG et fondateur de DeepL : « L'IA est partout, mais l'efficacité ne l'est pas. La plupart des entreprises ont déployé l'IA sous une forme ou une autre, mais peu atteignent une vraie productivité à l'échelle, parce que les workflows centraux restent conçus autour des personnes, pas des systèmes. » DeepL se distingue de ses concurrents généralistes sur un point stratégique : la souveraineté des données. Dans les secteurs réglementés — finance, santé, droit, administration publique — la conformité est devenue un critère de sélection de premier ordre. L'entreprise est certifiée ISO 27001, SOC 2 Type 2 et RGPD, et propose un chiffrement « Bring Your Own Key » permettant aux clients de révoquer l'accès à leurs données en quelques secondes, y compris pour DeepL lui-même. Cette garantie lui ouvre des portes que les grands fournisseurs de LLM peinent à franchir. En 2026, la société accélère sur l'IA agentique avec DeepL Agent, et son CTO Sebastian Enderlein résume l'ambition : « 2026 sera l'année où l'IA arrête d'expérimenter et commence à exécuter, à une échelle que nous n'avons pas encore vue. »

UEL'étude couvre explicitement la France et l'Allemagne, et la conformité RGPD mise en avant par DeepL répond à une exigence réglementaire européenne directe pour les entreprises traitant des données multilingues sensibles.

OutilsOutil
1 source
Liquid AI publie LFM2.5-350M : un modèle compact de 350 millions de paramètres entraîné sur 28 000 milliards de tokens avec apprentissage par renforcement
66MarkTechPost 

Liquid AI publie LFM2.5-350M : un modèle compact de 350 millions de paramètres entraîné sur 28 000 milliards de tokens avec apprentissage par renforcement

Liquid AI a publié LFM2.5-350M, un modèle de langage de 350 millions de paramètres entraîné sur 28 000 milliards de tokens — soit un ratio tokens/paramètres de 80 000 pour 1, un record dans cette catégorie de taille. Contrairement aux architectures Transformer classiques, ce modèle repose sur une structure hybride appelée LIV (Linear Input-Varying Systems) : 10 blocs de convolution LIV à double gating et 6 blocs d'attention GQA (Grouped Query Attention). Cette combinaison permet de gérer une fenêtre de contexte de 32 768 tokens tout en maintenant une empreinte mémoire extrêmement réduite — 169 Mo sur un Snapdragon 8 Elite, 81 Mo sur GPU Snapdragon, et 300 Mo sur Raspberry Pi 5. Sur GPU NVIDIA H100, le modèle atteint 40 400 tokens générés par seconde en forte concurrence. Aux benchmarks, il affiche 76,96 sur IFEval (suivi d'instructions), 30,64 sur GPQA Diamond et 20,01 sur MMLU-Pro. Ce modèle s'adresse directement au marché de l'IA embarquée : appareils mobiles, systèmes edge, IoT, environnements à ressources contraintes. Sa capacité à tourner en moins de 300 Mo de RAM le rend déployable sans cloud, sans GPU serveur, directement sur l'appareil de l'utilisateur final. Pour les développeurs qui construisent des agents autonomes, des pipelines d'extraction de données structurées (JSON, appels de fonctions) ou des systèmes de traitement d'instructions complexes, le LFM2.5-350M offre une vitesse d'inférence difficile à atteindre avec des modèles deux fois plus grands. En revanche, Liquid AI est explicite : ce modèle n'est pas recommandé pour les mathématiques avancées, le code complexe ou l'écriture créative — domaines où la densité de paramètres reste déterminante. Liquid AI, startup fondée par des chercheurs du MIT spécialisés dans les réseaux neuronaux liquides, s'inscrit dans un courant croissant qui remet en question le dogme du « toujours plus grand ». Alors que les grands acteurs — OpenAI, Google, Anthropic — continuent de pousser des modèles frontier aux milliards de paramètres, une contre-tendance émerge autour de la densité d'intelligence : faire mieux avec moins, en optimisant radicalement le ratio données/paramètres et l'architecture elle-même. L'abandon partiel du mécanisme d'attention au profit de systèmes LIV réduit le problème du cache KV qui pénalise les Transformers sur les longues séquences. Cette approche ouvre la voie à une IA véritablement locale, souveraine et déployable sans dépendance à l'infrastructure cloud — un enjeu stratégique croissant dans un contexte de régulation des données et de souveraineté numérique.

UELa capacité du modèle à fonctionner sans infrastructure cloud s'aligne avec les enjeux de souveraineté numérique et de conformité RGPD en Europe, où le traitement local des données réduit la dépendance aux serveurs américains.

LLMsOpinion
1 source
Le passage à la personnalisation des modèles d'IA est une nécessité architecturale
67MIT Technology Review 

Le passage à la personnalisation des modèles d'IA est une nécessité architecturale

Les grands modèles de langage (LLM) généralistes ont connu leur âge d'or : des bonds de performance spectaculaires à chaque nouvelle version. Cette ère touche à sa fin. Les progrès s'accumulent désormais de façon incrémentale sur les benchmarks généraux, tandis qu'une exception subsiste — l'intelligence de domaine. Mistral AI, la startup française spécialisée en IA, documente plusieurs déploiements concrets de modèles sur mesure : un fabricant d'équipements réseau a entraîné un modèle sur ses propres langages et bases de code propriétaires, obtenant une maîtrise que les modèles standards ne pouvaient atteindre ; un grand constructeur automobile a automatisé l'analyse comparative entre simulations numériques et tests physiques de crash, réduisant à quelques minutes ce qui mobilisait autrefois des journées entières de travail spécialisé ; enfin, une agence gouvernementale en Asie du Sud-Est a commandité un modèle fondation calibré sur les langues régionales et les contextes culturels locaux pour créer une infrastructure d'IA souveraine, indépendante des modèles occidentaux. L'enjeu central est la création d'un avantage concurrentiel durable. Lorsqu'un modèle est entraîné sur les données propriétaires d'une organisation — ses processus internes, sa terminologie métier, son historique décisionnel —, il encode la logique de l'entreprise directement dans ses poids. Cela va bien au-delà du fine-tuning classique : c'est l'institutionnalisation de l'expertise dans un système automatisé. Pour l'industrie automobile, cela signifie un copilote capable de proposer des ajustements de conception en temps réel. Pour le secteur public, c'est la garantie que des données sensibles restent sous gouvernance nationale tout en alimentant des services citoyens efficaces. La customisation transforme l'IA d'outil générique en actif stratégique différenciant. Ce changement de paradigme intervient alors que les organisations réalisent les limites des approches expérimentales menées en silos. Les pilotes isolés produisent des pipelines fragiles, une gouvernance improvisée et une portabilité réduite. La vraie rupture exige de traiter l'IA comme une infrastructure d'entreprise — au même titre qu'une base de données ou un système ERP — et non comme un projet ponctuel. Mistral AI se positionne comme partenaire de cette transition en intégrant l'expertise métier dans ses écosystèmes d'entraînement. La course à la personnalisation redéfinit les rapports de force : les entreprises capables d'encoder leur savoir institutionnel dans un modèle construisent une barrière à l'entrée que les acteurs généralistes ne peuvent pas répliquer, car ce fossé se creuse à mesure que le modèle apprend et s'affine avec les données nouvelles de l'organisation.

UEMistral AI, startup française de référence, se positionne comme partenaire stratégique pour les entreprises et institutions européennes souhaitant développer des modèles sur mesure garantissant la souveraineté de leurs données.

LLMsActu
1 source
Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures
68The Information AI 

Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures

Le chatbot de DeepSeek a subi une panne majeure de plus de dix heures dans la nuit de dimanche à lundi, rendant inaccessibles à la fois le site web et l'application mobile de la startup chinoise. Il s'agit de l'interruption de service la plus longue enregistrée depuis que le modèle phare de l'entreprise avait connu un succès viral début 2025. Le service a été rétabli lundi matin, sans que DeepSeek n'ait fourni d'explication publique sur les causes de l'incident. Une panne de cette durée sur un service d'IA aussi fréquenté soulève des questions sérieuses sur la fiabilité de l'infrastructure de DeepSeek. Pour les millions d'utilisateurs qui dépendent du chatbot comme outil de travail quotidien, dix heures d'indisponibilité représentent une interruption significative. L'absence de communication officielle aggrave la situation : les entreprises et développeurs intégrant DeepSeek dans leurs flux de travail se retrouvent sans visibilité sur les risques opérationnels. DeepSeek s'était imposé comme un concurrent inattendu face à OpenAI et Google début 2025, en proposant des performances comparables à des coûts bien inférieurs, ce qui avait provoqué un choc boursier aux États-Unis. Mais la montée en charge rapide d'un service qui n'avait pas été conçu pour une adoption mondiale de masse expose désormais ses faiblesses infrastructurelles. Cette panne survient alors que la fiabilité et la souveraineté des outils d'IA font l'objet d'un examen croissant, notamment en Europe où la provenance chinoise de DeepSeek alimente des débats sur la dépendance technologique.

UELa panne relance le débat en Europe sur la dépendance aux outils d'IA d'origine chinoise et les risques pour la souveraineté technologique.

💬 10 heures, aucune explication, aucun post-mortem. C'est ça qui me pose problème, pas la panne en elle-même (tout tombe, même OpenAI). Quand tu intègres un service dans ton workflow sans avoir aucune visibilité sur ce qui s'est passé, tu travailles à l'aveugle. Bon, c'est le signal pour tous ceux qui hésitaient encore sur la question souveraineté.

InfrastructureOpinion
1 source
« Risque de sécurité réel » : les États-Unis sur le point d’interdire les robots humanoïdes chinois ?
69Numerama 

« Risque de sécurité réel » : les États-Unis sur le point d’interdire les robots humanoïdes chinois ?

Le 26 mars 2026, deux sénateurs américains ont déposé un projet de loi visant à interdire l'utilisation de robots humanoïdes fabriqués en Chine par les agences fédérales américaines. Le texte, dont les détails précis n'ont pas encore été rendus publics, cible explicitement les équipements robotiques d'origine chinoise déployés dans des environnements gouvernementaux sensibles. L'enjeu dépasse la simple question commerciale : les législateurs craignent que ces robots, équipés de capteurs, caméras et microphones, ne constituent des vecteurs potentiels de collecte de renseignements au profit de Pékin. Un robot humanoïde opérant dans un bâtiment fédéral aurait théoriquement accès à des conversations, des documents et des flux vidéo — une surface d'attaque comparable à celle des équipements réseau Huawei, déjà bannis aux États-Unis depuis 2019. Cette initiative s'inscrit dans une rivalité technologique sino-américaine qui s'intensifie dans le domaine de la robotique. Des entreprises chinoises comme Unitree ou Fourier Intelligence gagnent rapidement du terrain sur le marché mondial, inquiétant Washington qui cherche à protéger ses infrastructures critiques. Si le projet est adopté, il pourrait ouvrir la voie à des restrictions similaires chez les alliés américains, et accélérer les appels à une production robotique souveraine en Occident.

UESi le projet de loi est adopté, il pourrait pousser les alliés américains à adopter des restrictions similaires et accélérer les appels à une production robotique souveraine en Europe.

RégulationReglementation
1 source
« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »
70Le Monde Pixels 

« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »

Georges Nahon, ancien directeur général d'Orange Labs, publie dans Le Monde une tribune dans laquelle il interroge la nécessité d'une nationalisation partielle, voire totale, des grandes entreprises d'intelligence artificielle générative. Face à la montée en puissance de l'IA dans les stratégies militaires mondiales, il soulève une question que peu d'acteurs institutionnels osent encore poser publiquement : peut-on laisser des technologies aussi décisives entre des mains entièrement privées ? L'enjeu est considérable. Si la guerre du futur est avant tout une guerre logicielle — comme le titre de la tribune l'affirme —, alors les entreprises qui maîtrisent les modèles de langage les plus avancés détiennent un avantage stratégique comparable à celui que représentaient autrefois l'armement nucléaire ou le contrôle des ressources énergétiques. Laisser cette puissance aux seules mains d'acteurs privés, non élus et peu régulés, pose des questions démocratiques et sécuritaires fondamentales. La Silicon Valley a, selon Nahon, anticipé bien avant les États cette convergence entre IA civile et militaire. Des contrats comme ceux de Palantir, Microsoft ou Google avec l'armée américaine illustrent ce mouvement. En Europe, la question de la souveraineté numérique resurgit avec une acuité nouvelle, alors que ni la France ni l'Union européenne ne disposent de champions comparables capables de peser dans cette nouvelle course aux armements algorithmiques.

UELa tribune soulève directement la question de la souveraineté numérique française et européenne, pointant l'absence de champions IA capables de peser dans la nouvelle course aux armements algorithmiques face aux acteurs américains.

RégulationReglementation
1 source
OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA
71Le Big Data 

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

OpenClaw, l'agent IA local et open source lancé fin 2025, a rapidement dépassé Linux et React sur GitHub pour atteindre plus de 330 000 étoiles, s'imposant comme l'un des projets les plus suivis de la plateforme. Contrairement aux chatbots classiques, OpenClaw agit directement sur la machine de l'utilisateur de manière autonome. Pour étendre ses capacités, la communauté a développé une marketplace d'extensions appelée ClawHub, proposant des milliers de modules baptisés Skills. Parmi les plus plébiscités : le Skill Obsidian, qui synchronise l'agent avec une base de notes locale en Markdown ; le module RAG (Retrieval-Augmented Generation) pour interroger des documents PDF et archives internes sans envoyer de données vers des serveurs externes ; le Skill GOG pour connecter l'agent à Gmail, Google Calendar et Drive via OAuth ; et enfin le Skill GitHub, qui s'appuie sur le CLI officiel gh pour gérer le cycle de vie complet d'un dépôt de code. Ce qui distingue OpenClaw des assistants IA classiques, c'est précisément cette capacité à passer de la consultation à l'exécution concrète. Un utilisateur peut demander à l'agent de trier sa boîte mail, rédiger une note structurée dans Obsidian, ou créer une pull request sur GitHub — le tout sans ouvrir un seul onglet de navigateur. Le module RAG est particulièrement stratégique pour les entreprises : il permet d'interroger des gigaoctets de documentation interne sensible en restant entièrement en local, éliminant le risque de fuite de données vers des API tierces. Pour les développeurs, le Skill GitHub transforme l'agent en ingénieur DevOps autonome capable de gérer des workflows complexes sans supervision constante. OpenClaw s'inscrit dans une tendance de fond : la montée des agents IA locaux, souverains et extensibles, portée par la communauté open source. Son ascension fulgurante rappelle celle de projets comme Docker ou Kubernetes en leur temps — des outils qui ont redéfini les pratiques professionnelles en quelques mois. La marketplace ClawHub joue un rôle central dans cet écosystème, en reproduisant le modèle de distribution des extensions de VS Code ou des plugins npm, mais appliqué à l'automatisation par IA. Les prochains enjeux tournent autour de la sécurité des Skills tiers, de la standardisation des interfaces entre modules, et de l'émergence d'agents capables de chaîner plusieurs Skills de manière fiable sur des tâches longues — un défi technique que la communauté commence à peine à adresser.

UELe module RAG local d'OpenClaw répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux entreprises européennes de traiter des documents internes sensibles sans transférer de données vers des serveurs tiers.

OutilsOutil
1 source
Cohere lance Cohere Transcribe, un modèle de reconnaissance vocale automatique de pointe pour les entreprises
72MarkTechPost 

Cohere lance Cohere Transcribe, un modèle de reconnaissance vocale automatique de pointe pour les entreprises

Cohere, l'entreprise canadienne spécialisée dans les grands modèles de langage pour les entreprises, a lancé le 26 mars 2026 son premier modèle de reconnaissance automatique de la parole, baptisé Cohere Transcribe. Dès sa sortie, le modèle s'est classé premier sur le classement Open ASR Leaderboard de Hugging Face, avec un taux d'erreur moyen de 5,42 % (WER) sur sept ensembles de benchmark — AMI, Earnings22, GigaSpeech, LibriSpeech, SPGISpeech, TED-LIUM et VoxPopuli. Il surpasse ainsi les références du marché : Whisper Large v3 d'OpenAI (7,44 % WER), ElevenLabs Scribe v2 (5,83 %) et Qwen3-ASR-1.7B (5,76 %). Dans des évaluations humaines en anglais, les annotateurs ont préféré Transcribe dans 78 % des cas face à IBM Granite 4.0, 67 % face à NVIDIA Canary, et 64 % face à Whisper Large v3. Le modèle prend en charge 14 langues — dont le français, l'anglais, l'arabe, le chinois et le japonais — en misant sur la qualité plutôt que sur l'exhaustivité. Ce lancement marque une entrée stratégique de Cohere sur un segment jusqu'ici dominé par OpenAI, Google et Meta. Pour les entreprises, la transcription automatique fiable est un prérequis pour exploiter des données audio massives : appels de centres de contact, réunions, audiences juridiques, transcriptions médicales. Un WER inférieur à 6 % représente un seuil de qualité utilisable en production sans correction humaine systématique, ce qui change concrètement l'économie du traitement audio à grande échelle. La capacité du modèle à traiter des fichiers longs — jusqu'à des enregistrements de plus d'une heure — via un système de découpage automatique en segments de 35 secondes avec réassemblage intelligent répond directement aux usages entreprise les plus exigeants, comme les earnings calls ou les procédures légales. Sur le plan technique, Cohere a opté pour une architecture hybride Conformer-Transformer : un encodeur Conformer de grande taille, qui combine réseaux convolutifs (efficaces pour les détails acoustiques locaux) et mécanismes d'attention (pour les dépendances linguistiques longue portée), couplé à un décodeur Transformer allégé. Ce choix architectural, entraîné par supervision classique (cross-entropy), contraste avec les approches purement Transformer comme Whisper. Cohere, qui avait jusqu'ici concentré son offre sur les modèles de texte et d'embedding, se positionne désormais sur une stack multimodale complète à destination des entreprises. Dans un contexte où les grandes plateformes — Microsoft, Zoom, Google — intègrent déjà de la transcription native dans leurs outils, Cohere parie sur une offre souveraine et personnalisable pour les équipes qui ne veulent pas dépendre des APIs propriétaires des géants américains.

UECohere Transcribe supporte le français parmi ses 14 langues et se positionne comme alternative souveraine aux APIs américaines pour les entreprises européennes souhaitant traiter des données audio sensibles en interne.

OutilsOpinion
1 source
Terafab : Elon Musk dévoile son plan pour créer la plus grande usine de puces mondiale
73Le Big Data 

Terafab : Elon Musk dévoile son plan pour créer la plus grande usine de puces mondiale

Elon Musk a annoncé Terafab, une méga-usine de semi-conducteurs implantée à Austin, Texas, co-entreprise entre Tesla, SpaceX et xAI, visant à produire jusqu'à un térawatt de puissance de calcul par an — une échelle inédite dans l'industrie. Le projet répond à la pénurie de puces pour l'IA générative, la robotique et les infrastructures spatiales, Musk estimant que TSMC, Samsung et Micron ne couvrent que 2 % des besoins futurs de ses entreprises. Terafab produira deux types de puces — terrestres et durcies pour l'espace — dans l'optique d'une souveraineté totale sur la chaîne d'approvisionnement en calcul, bien que le projet reste confronté à d'importants défis industriels et technologiques.

UEAccentue la dépendance structurelle de l'Europe en semi-conducteurs avancés au moment où l'UE tente de développer sa propre capacité de production via l'European Chips Act.

InfrastructureActu
1 source
Mistral : le PDG appelle à une taxe sur les entreprises d'IA en Europe
74AI Business 

Mistral : le PDG appelle à une taxe sur les entreprises d'IA en Europe

Le PDG de Mistral propose que les entreprises d'IA paient une taxe en Europe, dans une logique de souveraineté numérique européenne. Cette position reflète l'engagement de Mistral en faveur d'un écosystème IA européen indépendant.

UEUne taxe sur les entreprises d'IA en Europe pourrait financer la souveraineté numérique européenne et avantager les acteurs locaux comme Mistral face aux géants étrangers.

RégulationReglementation
1 source
La taxe MISTRAL : une base de négociation pour l’Europe ?
75FrenchWeb 

La taxe MISTRAL : une base de négociation pour l’Europe ?

L'IA reconfigure les cadres juridiques européens autour du droit d'auteur, face à l'entraînement massif des modèles sur des contenus protégés. La "taxe MISTRAL" émerge comme une proposition de base de négociation pour trouver un équilibre entre les droits des créateurs et le développement des LLMs en Europe. Ce débat s'inscrit dans une réflexion plus large sur la souveraineté numérique et la régulation de l'IA sur le continent.

UELa proposition de 'taxe MISTRAL' pourrait redéfinir le cadre juridique du droit d'auteur en Europe pour l'entraînement des LLMs, avec un impact direct sur les entreprises françaises comme Mistral et sur la compétitivité du secteur IA européen.

RégulationReglementation
1 source
76Siècle Digital 

Infomaniak veut changer de dimension avec 200 millions d’investissement dans le cloud et l’IA

Infomaniak, fournisseur suisse de services cloud basé à Genève, annonce un investissement de 200 millions d'euros pour accélérer son développement dans le cloud et l'IA. L'entreprise, qui se positionne sur une approche éthique et indépendante, entend profiter des débats croissants sur la souveraineté numérique en Europe pour renforcer sa position face aux géants américains. Cette levée marque une nouvelle phase de croissance après une expansion soutenue sur plusieurs marchés européens.

UEL'investissement de 200 millions d'euros d'Infomaniak renforce l'offre cloud souverain européen et donne aux entreprises et institutions françaises une alternative crédible aux hyperscalers américains pour héberger leurs données en conformité avec le RGPD.

BusinessActu
1 source
77Ahead of AI 

Un printemps pour les LLMs open-weight : 10 architectures (jan-fév 2026)

Entre janvier et février 2026, une vague exceptionnelle de modèles de langage open-weight a déferlé sur la communauté IA, avec dix architectures majeures publiées en l'espace de trois semaines. Parmi les sorties les plus remarquées : Trinity Large d'Arcee AI (27 janvier), Kimi K2.5 de Moonshot AI (27 janvier), Step 3.5 Flash de StepFun (1er février), Qwen3-Coder-Next (3 février), GLM-5 de z.AI et MiniMax M2.5 (12 février), Nanbeige 4.1 3B (13 février), Qwen 3.5 (15 février), les modèles Ling 2.5 et Ring 2.5 à 1 000 milliards de paramètres d'Ant Group (16 février), et enfin Tiny Aya de Cohere (17 février). Le modèle phare de cette période reste Trinity Large d'Arcee AI : un Mixture-of-Experts de 400 milliards de paramètres, dont seulement 13 milliards sont activés à chaque inférence, accompagné de deux variantes plus légères — Trinity Mini (26B/3B actifs) et Trinity Nano (6B/1B actifs). Arcee AI a publié les poids du modèle ainsi qu'un rapport technique détaillé, d'abord sur GitHub puis sur arXiv à partir du 18 février. Cette effervescence illustre une démocratisation accélérée des modèles de grande taille : des entreprises jusqu'ici discrètes, comme Arcee AI, publient désormais des architectures compétitives avec les géants comme z.AI et son GLM-4.5 (355 milliards de paramètres). Sur le plan technique, Trinity Large rivalise avec GLM-4.5 en performances sur les modèles de base — une parité remarquable pour une start-up américaine encore peu connue. Ces modèles open-weight permettent à des équipes de recherche, des entreprises et des développeurs indépendants de déployer des LLMs puissants sans dépendre des API commerciales fermées, ce qui réduit les coûts et augmente la souveraineté technologique. Sur le plan architectural, cette génération de modèles converge vers plusieurs innovations communes. L'attention à fenêtre glissante (sliding window attention, SWA) — qui réduit le coût computationnel de O(n²) à O(n·t) en limitant chaque token à une fenêtre locale fixe — est adoptée par Trinity, Gemma 3, OLMo 3 ou encore Xiaomi MiMo. Trinity opte pour un ratio local:global de 3:1 avec une fenêtre de 4 096 tokens. L'architecture intègre également le QK-Norm (normalisation des clés et requêtes pour stabiliser l'entraînement), l'absence d'encodage positionnel dans les couches d'attention globale (NoPE), et un mécanisme de gating sur l'attention qui réduit les "attention sinks" et améliore la généralisation sur les longues séquences. Ces choix architecturaux convergents signalent une forme de consensus émergeant dans la communauté open-weight sur les meilleures pratiques pour les modèles à très long contexte — une tendance qui devrait s'accentuer avec les prochaines sorties, dont DeepSeek V4, attendu prochainement.

UELes équipes de recherche et entreprises européennes peuvent déployer ces modèles open-weight puissants sans dépendre des API commerciales fermées, réduisant les coûts et renforçant leur souveraineté technologique.

LLMsActu
1 source
78OpenAI Blog 

SAP s'associe à OpenAI pour lancer 'OpenAI pour l'Allemagne

SAP et OpenAI annoncent une collaboration pour lancer "OpenAI for Germany", un partenariat pour 2026 visant à apporter une intelligence artificielle souveraine et sécurisée au secteur public allemand, améliorant ainsi les services publics efficaces et sûrs.

UESAP et OpenAI collaborent pour introduire "OpenAI for Germany", un partenariat jusqu'en 2026, visant à déployer une intelligence artificielle sécurisée dans le secteur public allemand, bénéficiant indirectement les entreprises françaises et européennes par le biais d'une montée en compétence dans la gestion de l'IA conformément au RGPD et l'AI Act.

RechercheOutil
1 source
79OpenAI Blog 

Présentation de Stargate UK

OpenAI, NVIDIA et Nscale ont lancé Stargate UK, un partenariat souverain en intelligence artificielle fournissant jusqu'à 50 000 GPU et le superordinateur le plus puissant du Royaume-Uni. Ce projet vise à accélérer l'innovation en IA, améliorer les services publics et stimuler la croissance économique du pays.

BusinessActu
1 source