Aller au contenu principal

Dossier Open weight & Open source — page 2

285 articles · page 2 sur 6

Le mouvement open-weight : DeepSeek, Mistral, Gemma, Qwen et Llama. La fracture stratégique entre laboratoires fermés et écosystème ouvert.

Les 7 benchmarks qui comptent vraiment pour le raisonnement des agents autonomes dans les LLM
51MarkTechPost LLMsPaper

Les 7 benchmarks qui comptent vraiment pour le raisonnement des agents autonomes dans les LLM

Alors que les agents d'intelligence artificielle quittent les laboratoires pour entrer dans les environnements de production, une question s'impose : comment évaluer concrètement leurs capacités ? Les métriques classiques comme les scores MMLU ou la perplexité ne disent rien sur la capacité d'un modèle à naviguer sur un site web, à résoudre un ticket GitHub ou à gérer un flux de service client sur des centaines d'interactions. Face à ce vide, la communauté a développé une nouvelle génération de benchmarks agentiques, dont sept ont émergé comme de véritables signaux de capacité. Premier avertissement fondamental : ces scores dépendent fortement du scaffolding utilisé. Le design du prompt, les outils disponibles, le budget de tentatives, l'environnement d'exécution et la version de l'évaluateur peuvent tous modifier significativement les résultats publiés. Un chiffre isolé ne vaut rien sans son contexte de production. Le benchmark SWE-bench, disponible sur swebench.com, est aujourd'hui la référence la plus citée pour l'ingénierie logicielle. Il soumet les agents à 2 294 problèmes réels tirés d'issues GitHub sur 12 dépôts Python populaires : le modèle doit produire un patch fonctionnel qui passe les tests unitaires, pas simplement décrire une solution. Le sous-ensemble Verified, composé de 500 échantillons validés par des ingénieurs professionnels en collaboration avec OpenAI, est la version standard des évaluations actuelles. Sa trajectoire est éloquente : en 2023, Claude 2 ne résolvait que 1,96 % des problèmes ; fin 2025 et début 2026, les modèles frontier les plus avancés franchissent la barre des 80 % sur ce même jeu de données. GAIA, hébergé sur Hugging Face, teste quant à lui des capacités d'assistance généraliste : raisonnement en plusieurs étapes, navigation web, usage d'outils et compréhension multimodale. Ses tâches paraissent simples en surface mais exigent des chaînes d'opérations non triviales, ce qui en fait un détecteur efficace de fragilité dans l'usage des outils. WebArena, sur webarena.dev, évalue la navigation web autonome dans des environnements fonctionnels simulant e-commerce, forums, développement collaboratif et gestion de contenus. Ces benchmarks reflètent une transformation profonde de ce que l'on attend des LLMs. L'ère des modèles évalués sur des QCM académiques est révolue : l'enjeu est désormais de mesurer leur capacité à agir de façon autonome dans des environnements complexes et bruités. Un score élevé sur SWE-bench indique une force spécifique en réparation de code, pas une autonomie universelle, ce qui explique pourquoi les équipes sérieuses croisent plusieurs benchmarks. Les modèles propriétaires tendent à surpasser les modèles open source, mais la performance dépend autant du harness d'exécution que du modèle sous-jacent. À mesure que les déploiements agentiques se généralisent en entreprise, ces outils d'évaluation deviennent des instruments de pilotage essentiels, non plus de simples curiosités académiques.

1 source
Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte
52MIT Technology Review 

Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte

DeepSeek a publié vendredi une version préliminaire de V4, son nouveau modèle phare attendu depuis plusieurs mois. Disponible en open source, le modèle se décline en deux versions : V4-Pro, conçu pour le code et les tâches d'agents complexes, et V4-Flash, plus léger et optimisé pour la vitesse. Sur les principaux benchmarks, V4-Pro rivalise avec les meilleurs modèles fermés du marché, se situant au niveau de Claude Opus de chez Anthropic, de GPT-5 d'OpenAI et de Gemini de Google. Face aux autres modèles open source, notamment Qwen d'Alibaba ou GLM de Z.ai, V4 les surpasse en codage, mathématiques et disciplines scientifiques. L'entreprise rapporte qu'une enquête interne auprès de 85 développeurs expérimentés a montré que plus de 90 % d'entre eux classent V4-Pro parmi leurs premiers choix pour les tâches de programmation. DeepSeek a également optimisé le modèle pour des frameworks d'agents populaires comme Claude Code ou CodeBuddy. Ce qui distingue V4, c'est son rapport performance-prix particulièrement agressif. V4-Pro est facturé 1,74 dollar par million de tokens en entrée et 3,48 dollars en sortie, une fraction du tarif pratiqué par OpenAI ou Anthropic pour des modèles comparables. V4-Flash descend encore plus bas, à 0,14 dollar par million de tokens en entrée et 0,28 dollar en sortie, ce qui en fait l'un des modèles haut de gamme les moins chers du marché. Pour les développeurs et les entreprises, cela signifie un accès à des capacités d'IA frontier sans les coûts habituellement prohibitifs des API propriétaires. Les deux versions intègrent un mode de raisonnement pas à pas, et V4 introduit une nouvelle architecture qui améliore significativement la gestion de longs contextes, ouvrant la voie à des applications sur des documents ou des bases de code entières. Cette sortie intervient dans un contexte particulier pour DeepSeek. La firme de Hangzhou avait provoqué un séisme dans l'industrie en janvier 2025 avec R1, un modèle de raisonnement entraîné avec des ressources limitées qui avait mis en question la suprématie américaine en matière d'IA. Depuis, l'entreprise a traversé des mois difficiles, marqués par des départs de personnels clés, des retards dans ses lancements et une surveillance accrue des gouvernements américain et chinois. V4 constitue son retour sur la scène des modèles frontier, même si l'effet de surprise de R1 ne se reproduira probablement pas. L'enjeu est désormais de confirmer que DeepSeek peut tenir dans la durée face à des adversaires disposant de ressources computationnelles autrement plus importantes, et de s'imposer comme une alternative crédible et pérenne dans un écosystème open source en pleine effervescence.

UELes développeurs et entreprises européennes accèdent à des capacités frontier en open source à des tarifs très inférieurs aux API propriétaires, élargissant concrètement les options pour les startups et PME du continent.

LLMsOpinion
1 source
DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5
53VentureBeat AI 

DeepSeek-V4 : performances proches du meilleur niveau pour un sixième du coût d'Opus 4.7 et GPT-5.5

DeepSeek, la startup chinoise d'intelligence artificielle issue du fonds de trading quantitatif High-Flyer Capital Management, a publié DeepSeek-V4, un modèle de langage aux capacités proches des meilleurs systèmes mondiaux. Avec 1 600 milliards de paramètres organisés selon une architecture Mixture-of-Experts (MoE), ce modèle est disponible gratuitement sous licence MIT commercialement permissive, sur la plateforme Hugging Face et via l'API de DeepSeek. Son tarif d'accès : 1,74 dollar par million de tokens en entrée et 3,48 dollars par million en sortie, soit environ 5,22 dollars pour une utilisation combinée standard. Avec les entrées mises en cache, ce coût descend à 3,63 dollars. À titre de comparaison, GPT-5.5 d'OpenAI coûte 35 dollars pour la même transaction, et Claude Opus 4.7 d'Anthropic 30 dollars. Une version allégée, DeepSeek-V4-Flash, est proposée à seulement 0,42 dollar combiné, au prix d'une baisse de performance. Deli Chen, chercheur chez DeepSeek, a décrit cette sortie sur X comme "un travail d'amour", réalisé 484 jours après le lancement du V3, avec cette formule : "L'AGI appartient à tout le monde." L'impact économique est immédiat et brutal pour les acteurs américains du secteur. DeepSeek-V4-Pro coûte environ six fois moins cher que Claude Opus 4.7 et sept fois moins que GPT-5.5 en conditions normales, et jusqu'à dix fois moins avec les entrées en cache. La version Flash, elle, revient à moins de 1 % du tarif des modèles premium américains. Pour les entreprises traitant de gros volumes de requêtes, cette différence de coûts transforme radicalement le calcul de rentabilité : des tâches d'automatisation jugées trop onéreuses avec les modèles fermés américains deviennent soudainement viables. Développeurs et directions techniques sont contraints de réévaluer leurs choix d'infrastructure, et les fournisseurs positionnés sur le haut de gamme voient leur argument tarifaire sérieusement fragilisé. Ce lancement s'inscrit dans la continuité du "moment DeepSeek" de janvier 2025, quand le modèle R1 avait stupéfait la communauté internationale en rivalisant avec les meilleurs systèmes propriétaires américains à une fraction de leur coût de développement. Depuis, la startup avait publié plusieurs mises à jour de ses séries R1 et V3, mais la communauté attendait un successeur de grande envergure. Ce DeepSeek-V4 est d'ores et déjà qualifié de "deuxième moment DeepSeek", et il ravive les débats sur la pérennité commerciale des modèles fermés face aux alternatives open source chinoises. Il soulève également des questions sur la capacité de DeepSeek à maintenir cette trajectoire malgré les restrictions américaines sur l'exportation de puces haut de gamme, contraintes que l'entreprise semble contourner avec une efficacité croissante grâce à des optimisations architecturales poussées.

UEL'écart de prix, jusqu'à six fois inférieur aux modèles premium américains, permet aux entreprises européennes de rentabiliser des projets d'automatisation IA jusqu'ici jugés trop coûteux.

💬 Six fois moins cher qu'Opus 4.7, performances comparables, licence MIT. C'est exactement le scénario que les équipes produit chez OpenAI et Anthropic essayaient de ne pas avoir à gérer, et il arrive quand même. "L'AGI appartient à tout le monde", dit DeepSeek, bon, sur le papier c'est beau, mais le vrai truc c'est que des automatisations qu'on refusait de budgéter il y a six mois deviennent rentables dès ce soir.

LLMsOpinion
1 source
The Download : arnaques dopées et IA dans la santé à l'étude
54MIT Technology Review 

The Download : arnaques dopées et IA dans la santé à l'étude

L'intelligence artificielle redessine en profondeur deux fronts critiques de la société numérique : la cybersécurité et la santé. Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont intégré les grands modèles de langage dans leur arsenal, automatisant la rédaction d'e-mails malveillants, le phishing ultraciblé, les deepfakes hyperréalistes et les scans automatisés de vulnérabilités. Résultat : les attaques sont devenues plus rapides, moins coûteuses et accessibles à un nombre croissant d'acteurs. De nombreuses organisations peinent aujourd'hui à absorber le volume de cyberattaques, une situation appelée à s'aggraver à mesure que les outils s'améliorent et se démocratisent. En parallèle, l'IA s'est imposée dans les hôpitaux : elle assiste la prise de notes médicales, analyse les dossiers patients pour identifier ceux nécessitant un suivi, et interprète des radios ou des résultats d'examens. Des études montrent que ces outils produisent des résultats précis, mais la question centrale reste sans réponse : ces technologies améliorent-elles réellement la santé des patients ? Cette double expansion de l'IA soulève des enjeux profonds. Dans le domaine de la cybersécurité, l'industrialisation de la fraude met sous pression non seulement les entreprises, mais aussi les particuliers et les institutions publiques, qui ne disposent pas toujours des ressources pour se défendre à la même vitesse que les attaquants progressent. Dans le secteur médical, l'absence de données solides sur les résultats cliniques réels pose un problème éthique et pratique majeur : des outils sont déployés à large échelle sans que l'on sache encore s'ils font gagner des années de vie ou simplement du temps administratif. C'est une lacune que la communauté médicale et les régulateurs devront combler rapidement. Ces tendances s'inscrivent dans un contexte de reconfigurations majeures du secteur tech. DeepSeek vient de lancer les versions preview de son modèle V4, présenté comme la plateforme open source la plus puissante à ce jour, optimisée pour les puces Huawei et rivalisant selon ses créateurs avec les meilleurs modèles fermés d'OpenAI et DeepMind. OpenAI a de son côté déployé GPT-5.5 à l'ensemble des utilisateurs de ChatGPT malgré des préoccupations en cybersécurité. Meta prévoit de supprimer environ 8 000 postes, soit 10 % de ses effectifs, annonce attendue le 20 mai, pour financer ses investissements en IA. Sur le plan géopolitique, un mémo de la Maison Blanche accuse des entreprises chinoises d'exploitation massive de modèles américains, accusation que Pékin qualifie de "calomnie". L'ère de l'accès gratuit aux IA avancées touche par ailleurs à sa fin, les laboratoires étant sous pression croissante pour rentabiliser leurs investissements colossaux.

UEL'industrialisation des cyberattaques par l'IA expose directement les entreprises et institutions européennes à des menaces croissantes, tandis que le déploiement à grande échelle d'outils IA médicaux sans évaluation clinique rigoureuse appelle une réponse réglementaire urgente de l'UE.

SécuritéActu
1 source
DeepSeek dévoile un nouveau modèle d'IA, un an après avoir secoué ses rivaux américains
55The Verge AI 

DeepSeek dévoile un nouveau modèle d'IA, un an après avoir secoué ses rivaux américains

DeepSeek, la startup chinoise d'intelligence artificielle, a dévoilé vendredi une préversion de son prochain modèle phare, baptisé V4. La société affirme que ce modèle open source rivalise avec les systèmes propriétaires des grands acteurs américains, notamment Anthropic, Google et OpenAI. DeepSeek met en avant des progrès significatifs par rapport aux versions précédentes, en particulier dans les capacités de génération de code, un domaine devenu central pour les agents IA et qui a propulsé le succès d'outils comme ChatGPT Codex ou Claude Code. La sortie s'accompagne d'une annonce notable pour l'industrie chinoise des semi-conducteurs : DeepSeek souligne explicitement la compatibilité de V4 avec les puces Huawei fabriquées en Chine. Ce lancement est stratégiquement important à plusieurs titres. Sur le plan technologique, une IA open source capable de tenir tête aux meilleurs modèles fermés du monde redistribue les cartes en matière d'accès et d'adoption. Pour les entreprises et développeurs, cela signifie potentiellement des alternatives performantes sans dépendance aux API américaines. Côté hardware, valider des puces Huawei comme substrat de développement IA de pointe est un signal fort dans un contexte de restrictions américaines à l'exportation de semi-conducteurs vers la Chine. Cette annonce intervient environ un an après que DeepSeek avait secoué la Silicon Valley avec la sortie de ses modèles R1 et V3, provoquant une chute en bourse de plusieurs acteurs du secteur et relançant le débat sur l'efficacité des restrictions technologiques imposées à Pékin. La course entre les États-Unis et la Chine pour la suprématie en IA s'accélère, et DeepSeek s'impose comme l'un des rares laboratoires non américains capable de fixer le rythme du secteur.

UELa disponibilité d'un modèle open source compétitif offre aux entreprises et développeurs européens une alternative crédible aux API américaines, renforçant les ambitions de souveraineté numérique de l'UE.

💬 Ce n'est pas le modèle en lui-même qui m'intéresse, c'est la puce Huawei en dessous. DeepSeek vient de montrer qu'on peut entraîner un concurrent sérieux aux meilleurs modèles du monde sans NVIDIA, ce qui rend les restrictions américaines à l'export beaucoup moins rassurantes pour Washington. Reste à voir si ça tient sur des benchmarks indépendants, mais en un an ils ont forcé la Silicon Valley à revoir ses calculs deux fois.

LLMsOpinion
1 source
Oubliez GPT-5.5 : DeepSeek-V4 est là et il est terrifiant
56Le Big Data 

Oubliez GPT-5.5 : DeepSeek-V4 est là et il est terrifiant

DeepSeek, la startup chinoise fondée en 2023, a lancé ce 24 avril 2026 une version préliminaire de son nouveau grand modèle de langage, baptisé DeepSeek-V4. Comme ses prédécesseurs, ce modèle est open source et librement téléchargeable. Il se décline en deux variantes : V4-Pro, avec 1,6 billion de paramètres totaux et 49 milliards de paramètres actifs, et V4-Flash, plus léger avec 284 milliards de paramètres totaux et 13 milliards actifs. Selon DeepSeek, la version Pro rivalise avec les meilleurs modèles propriétaires mondiaux en mathématiques et en programmation, et n'est dépassée que par Gemini 3.1-Pro de Google sur les connaissances générales. Les deux versions supportent une fenêtre de contexte d'un million de tokens et ont été optimisées pour fonctionner avec des outils comme Claude Code d'Anthropic. La version Flash, moins puissante, se distingue par sa rapidité et son coût d'API réduit. Ce lancement confirme la capacité de DeepSeek à maintenir une cadence de développement rapide face aux géants américains, tout en restant dans la sphère open source. Pour les développeurs et les entreprises, l'accès à un modèle de cette envergure, modifiable et exécutable localement, représente une alternative crédible aux solutions fermées d'OpenAI ou Google, généralement plus coûteuses. La compétitivité annoncée sur les tâches d'agents intelligents et d'inférence est particulièrement stratégique : ce sont précisément les cas d'usage qui alimentent les déploiements en production dans les entreprises technologiques. Si les benchmarks se confirment dans des conditions réelles, V4 pourrait accélérer l'adoption de modèles open source dans des environnements où la confidentialité des données ou la maîtrise des coûts sont prioritaires. DeepSeek avait fait irruption sur la scène internationale en janvier 2025 avec son modèle de raisonnement R1, développé en moins de deux mois pour un coût revendiqué inférieur à six millions de dollars, un chiffre qui avait ébranlé les certitudes de la Silicon Valley sur la nécessité d'investissements massifs. Ce coup d'éclat avait déclenché des interrogations profondes sur la domination américaine dans l'IA, mais aussi des doutes de la part d'analystes sceptiques quant aux ressources réellement mobilisées. Parallèlement, plusieurs pays avaient ouvert des enquêtes sur le traitement des données personnelles par les services de DeepSeek. Avec V4, la startup s'inscrit dans une continuité stratégique claire : publier rapidement, rester open source, et afficher des performances comparables aux modèles fermés les plus avancés. La prochaine étape sera de voir si ces performances tiennent à l'épreuve d'évaluations indépendantes, notamment face à GPT-5.5 qu'OpenAI vient de déployer.

UELa nature open source de DeepSeek-V4 offre aux entreprises et institutions européennes une alternative déployable localement, réduisant la dépendance aux modèles fermés américains et facilitant la conformité RGPD grâce au traitement des données en interne.

LLMsOpinion
1 source
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois
57Next INpact 

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

OpenAI a lancé cette nuit GPT-5.5, nouvelle version de son grand modèle de langage, moins de deux mois après GPT-5.4 sorti le 5 mars. Le modèle cible explicitement les tâches complexes et mal structurées : OpenAI promet qu'on peut lui confier une requête à plusieurs volets, sans organisation précise, et lui faire confiance pour planifier, utiliser des outils, vérifier son propre travail et aller jusqu'au bout. Les progrès les plus marqués concernent le code agentique, l'utilisation de l'ordinateur et les premières étapes de la recherche scientifique. Sur Terminal-Bench, benchmark mesurant la capacité à enchaîner des actions et corriger des erreurs, GPT-5.5 creuse nettement l'écart avec son prédécesseur et ses concurrents. Les gains restent plus modérés sur GDPval et OSWorld. Côté prix, GPT-5.5 double les tarifs de GPT-5.4 en atteignant environ 5 dollars en entrée et 30 dollars en sortie par million de tokens, mais OpenAI avance que le modèle compense en utilisant moins de tokens pour des tâches équivalentes. Il est déjà disponible pour les abonnés payants Plus, Pro, Business et Enterprise, ainsi que dans Codex, avec l'accès API annoncé prochainement. Cette cadence de sortie illustre la pression concurrentielle extrême dans laquelle évolue OpenAI. Chaque mise à jour vise à maintenir un écart de performance sur Anthropic, Google et les modèles open source, dans un segment où les entreprises comparent désormais les coûts à la tâche accomplie plutôt qu'au token brut. L'argument d'efficacité de GPT-5.5, s'il se confirme en production, peut justifier la hausse tarifaire pour les usages professionnels intensifs, notamment le développement logiciel assisté et l'automatisation de workflows complexes. En parallèle, OpenAI a présenté Privacy Filter, un modèle inédit conçu pour détecter et supprimer des données personnelles dans du texte. Sa particularité : il peut tourner entièrement en local, sans envoyer les données vers un serveur, ce qui le rend utilisable sur des documents sensibles. Avec seulement 1,5 milliard de paramètres dont 50 millions actifs, il reste léger tout en traitant des contextes jusqu'à 128 000 tokens. Il couvre huit catégories : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets comme les mots de passe ou clés API. OpenAI est transparent sur ses limites : Privacy Filter n'est pas un outil d'anonymisation complet et exige une validation humaine dans les cas sensibles. Cette annonce s'inscrit dans un contexte réglementaire croissant autour de la protection des données, notamment en Europe, où le RGPD impose des contraintes strictes sur le traitement des informations personnelles par des systèmes d'IA.

UELe Privacy Filter, conçu pour fonctionner en local sans transfert de données, constitue une réponse directe aux exigences du RGPD et intéresse particulièrement les entreprises européennes traitant des données personnelles sensibles.

LLMsOpinion
1 source
OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation
58The Verge AI 

OpenAI annonce que GPT-5.5 est plus efficace et plus performant en programmation

OpenAI a annoncé GPT-5.5, son nouveau modèle de langage, présenté comme "le plus intelligent et le plus intuitif à utiliser" jamais développé par la société. Ce lancement intervient à peine un mois après la sortie de GPT-5.4, illustrant un rythme de publication particulièrement soutenu. Selon OpenAI, GPT-5.5 se distingue par ses capacités améliorées en écriture et débogage de code, en recherche en ligne, en création de documents et de feuilles de calcul, ainsi que par sa capacité à opérer de manière coordonnée à travers différents outils. L'entreprise décrit ce modèle comme "la prochaine étape vers une nouvelle façon de travailler sur ordinateur". La principale avancée de GPT-5.5 réside dans sa capacité à prendre en charge des tâches complexes et multidimensionnelles de manière autonome. L'utilisateur peut confier une mission floue ou fragmentée au modèle, qui planifie lui-même les étapes, utilise les outils appropriés, vérifie son propre travail et gère les ambiguïtés sans supervision constante. Ce changement de paradigme vise directement les professionnels qui passent aujourd'hui un temps considérable à orchestrer manuellement leurs workflows numériques. Cette annonce s'inscrit dans la course effrénée aux modèles dits "agentiques", capables d'agir de façon autonome plutôt que de simplement répondre à des questions. OpenAI fait face à une concurrence croissante d'Anthropic avec Claude, de Google avec Gemini, et de plusieurs acteurs open source. La cadence de publication accélérée, avec deux versions majeures en un mois, suggère une pression concurrentielle intense et une volonté de maintenir la position dominante d'OpenAI sur le marché des assistants IA professionnels.

UELes entreprises et professionnels européens pourront exploiter les nouvelles capacités agentiques de GPT-5.5, mais aucun impact réglementaire ou institutionnel spécifique à la France ou à l'UE n'est mentionné.

💬 GPT-5.4 avait même pas eu le temps de refroidir. Ce qui m'intéresse dans ce 5.5, c'est l'angle autonomie : confier une tâche floue et pas avoir à orchestrer chaque étape à la main. Bon, sur le papier c'est très bien, mais les démos OpenAI sont toujours plus convaincantes que la prod.

LLMsOpinion
1 source
CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA
59arXiv cs.RO 

CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA

Des chercheurs ont publié CARLA-Air, une plateforme de simulation open source qui permet, pour la première fois, de faire voler des drones multirotor directement dans l'environnement urbain de CARLA, le simulateur de référence pour la conduite autonome, développé initialement par Waymo et maintenu par la communauté. La plateforme tourne au sein d'un unique processus Unreal Engine, garantissant une cohérence spatiale et temporelle stricte entre les agents au sol et les drones, tout en capturant simultanément jusqu'à 18 modalités de capteurs à chaque pas de simulation. Elle préserve les API Python natives de CARLA et d'AirSim, ainsi que les interfaces ROS 2, ce qui permet de réutiliser du code existant sans aucune modification. L'enjeu est considérable pour les équipes qui travaillent sur les systèmes robotiques mixtes air-sol, un domaine en pleine expansion avec le développement des économies à basse altitude, livraisons par drone, inspection d'infrastructures, mobilité urbaine aérienne. Jusqu'ici, les simulateurs de conduite manquaient de dynamique aérienne réaliste, tandis que les simulateurs de drones proposaient des environnements urbains trop simplifiés. Les solutions de co-simulation par pont introduisaient des décalages temporels incompatibles avec l'entraînement de politiques de navigation ou de perception multi-modale. CARLA-Air supprime ces compromis en offrant un seul environnement avec trafic conforme aux règles de circulation, piétons à comportement social, et dynamique aérodynamique cohérente. Le projet répond aussi à une urgence pratique : Microsoft a archivé le développement d'AirSim, le simulateur de drones le plus utilisé dans la recherche académique, laissant orphelines de nombreuses équipes. CARLA-Air reprend cet héritage et l'intègre dans une infrastructure moderne et activement maintenue. La plateforme est déjà conçue pour accueillir des charges de travail avancées : coopération air-sol, navigation incarnée, actions guidées par le langage, construction de jeux de données et entraînement par renforcement. Le code source complet et des binaires précompilés sont disponibles sur GitHub, ce qui devrait faciliter son adoption rapide dans la communauté robotique et autonome.

UELes équipes de recherche européennes en robotique et mobilité urbaine aérienne disposent d'une alternative open source maintenue à AirSim pour développer et entraîner des systèmes autonomes mixtes air-sol.

RobotiqueOpinion
1 source
Google et AWS répartissent la pile des agents IA entre contrôle et exécution
60VentureBeat AI 

Google et AWS répartissent la pile des agents IA entre contrôle et exécution

Google et Amazon Web Services viennent de redéfinir leurs approches respectives pour orchestrer les agents IA d'entreprise, révélant une fracture profonde dans la façon de concevoir l'infrastructure agentique. Google a lancé une nouvelle version de Gemini Enterprise, regroupant sous une même bannière sa plateforme Gemini Enterprise et son application éponyme, tout en rebaptisant Vertex AI en Gemini Enterprise Platform. De son côté, AWS a enrichi Bedrock AgentCore d'un système de harness, un dispositif de configuration automatique alimenté par Strands Agents, son framework open source. Ce harness permet aux équipes de définir ce que l'agent doit faire, quel modèle utiliser et quels outils appeler, le reste étant pris en charge automatiquement. Dans le même temps, Anthropic a dévoilé ses Claude Managed Agents et OpenAI a renforcé son Agents SDK, confirmant que l'ensemble de l'industrie cherche simultanément à résoudre le même problème : comment gérer des agents IA qui tournent durablement en production. L'enjeu dépasse la simple question de l'outillage développeur. À mesure que les agents passent de courtes tâches ponctuelles à des workflows autonomes de longue durée, un nouveau type de défaillance émerge : la dérive d'état (state drift). Un agent qui fonctionne en continu accumule de la mémoire, des réponses et un contexte évolutif. Avec le temps, ce contexte devient obsolète : les sources de données changent, les outils renvoient des réponses contradictoires, et l'agent perd en fiabilité sans que personne ne s'en rende forcément compte. C'est ce problème systémique que Google et AWS cherchent à prévenir, par deux chemins opposés. Google mise sur un plan de contrôle à la manière de Kubernetes, centré sur la gouvernance et la visibilité. AWS privilégie la vitesse de déploiement et la simplification de la configuration, en déléguant la coordination à la couche d'exécution. Cette divergence illustre une transformation plus profonde de la pile IA, qui se stratifie désormais en couches spécialisées. Google positionne Gemini Enterprise comme une porte d'entrée unifiée vers l'ensemble de ses systèmes IA, avec des outils de sécurité et de gouvernance inclus dans l'abonnement, selon Maryam Gholami, directrice senior produit chez Google. AWS, Anthropic et OpenAI s'orientent davantage vers la vélocité et la flexibilité d'exécution. La question de savoir quelle approche s'imposera reste ouverte : Gholami elle-même reconnaît que ce sont les clients qui dicteront les usages des agents longue durée, un domaine où les bonnes pratiques restent encore à définir. Le vrai test viendra lorsque les entreprises feront tourner ces systèmes en conditions réelles, avec des agents qui devront remonter de l'information, demander des validations humaines, et résister à la dégradation progressive de leur contexte.

UELes entreprises européennes qui déploient des agents IA en production sur Google Cloud ou AWS devront arbitrer entre les deux approches d'orchestration pour leurs workflows agentiques durables.

InfrastructureOpinion
1 source
Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch
61AWS ML Blog 

Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch

NVIDIA a publié en août 2025 Parakeet-TDT-0.6B-v3, un modèle de transcription automatique de la parole open source couvrant 25 langues européennes, dont le français, l'allemand, l'espagnol, le polonais ou l'ukrainien. Capable de détecter automatiquement la langue parlée, ce modèle affiche un taux d'erreur sur les mots de 6,34 % en conditions acoustiques propres et de 11,66 % à 0 dB de rapport signal/bruit, tout en prenant en charge des fichiers audio allant jusqu'à trois heures. Distribué sous licence CC-BY-4.0, il s'appuie sur une architecture Token-and-Duration Transducer (TDT) qui prédit simultanément les tokens de texte et leur durée, permettant de sauter silences et segments redondants pour atteindre des vitesses d'inférence très largement supérieures au temps réel. Dans la configuration présentée, le modèle tourne sur AWS Batch avec des instances GPU G6 équipées de NVIDIA L4, qui offrent le meilleur ratio coût/performance, bien qu'il soit également compatible avec des instances G5, G4dn ou P5 pour un débit maximal. Le pipeline est entièrement événementiel : un fichier audio déposé sur Amazon S3 déclenche une règle Amazon EventBridge, qui soumet automatiquement un job à AWS Batch, lequel provisionne les ressources, télécharge l'image de conteneur depuis Amazon ECR et restitue une transcription JSON horodatée dans un bucket de sortie. Le coût final descend à quelques fractions de centime par heure d'audio. L'enjeu principal est économique. Pour les organisations traitant des volumes massifs d'audio, qu'il s'agisse d'archives médias, d'enregistrements de centres d'appels, de données d'entraînement pour l'IA ou de sous-titrage vidéo à la demande, les services ASR gérés facturent généralement à la durée réelle du fichier, ce qui fait exploser les coûts dès que les volumes augmentent. En ne payant que de brèves fenêtres de calcul GPU plutôt que la totalité de la durée audio, combiné à l'utilisation d'instances EC2 Spot moins onéreuses et au streaming par tampons, ce pipeline peut réduire la facture de transcription de façon substantielle par rapport aux APIs cloud classiques comme celles d'AWS Transcribe ou de Google Speech-to-Text. La prise en charge native de 25 langues sans configuration par langue supprime également une complexité opérationnelle significative pour les entreprises internationales. Cette approche s'inscrit dans une tendance plus large consistant à substituer des modèles open source performants aux services gérés pour les charges de travail à fort volume. NVIDIA, qui diffuse Parakeet dans le cadre de son écosystème NeMo, cherche à s'imposer comme référence en ASR face à OpenAI avec Whisper, à AssemblyAI ou encore à Amazon Transcribe. Le fait qu'un modèle de 600 millions de paramètres atteigne ces niveaux de précision multilingue ouvre la voie à des pipelines entièrement maîtrisés, hébergés en interne ou dans un cloud privé, sans dépendance à un fournisseur. La prochaine étape logique pour les équipes qui adoptent cette architecture sera d'enchaîner directement en aval des modules de post-traitement automatisés, résumé, analyse de sentiment ou détection d'entités, pour extraire encore plus de valeur des transcriptions produites.

UELe modèle Parakeet couvre nativement 25 langues européennes dont le français, offrant aux organisations françaises et européennes un pipeline de transcription audio économique et souverain, sans dépendance à un service ASR propriétaire.

OutilsTuto
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
62Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
Xinference : encore un paquet PyPI verolé qui vole vos secrets en silence
63Next INpact 

Xinference : encore un paquet PyPI verolé qui vole vos secrets en silence

Les versions 2.6.0, 2.6.1 et 2.6.2 de Xinference, bibliothèque Python populaire permettant aux développeurs de basculer entre différents modèles d'IA open source en une seule ligne de code, ont été compromises sur PyPI, le dépôt officiel des paquets Python. L'attaque a été détectée par un utilisateur puis analysée par les chercheurs de JFrog, entreprise spécialisée en cybersécurité. Ce ne sont pas de faux paquets ou des variantes orthographiques trompeuses qui ont été mis en ligne : ce sont bien les paquets officiels de Xinference qui ont été infectés par des trojans. Le code malveillant, dissimulé en base64 dans le fichier init.py, s'exécute dès l'import de la bibliothèque, sans aucune interaction de l'utilisateur. Une fois lancé, il cible méthodiquement clés SSH et TLS privées, identifiants Git, secrets AWS, fichiers .env, configurations de messagerie, de bases de données, de Docker, Kubernetes, VPN, jetons de gestionnaires de paquets et portefeuilles de cryptomonnaies, le tout compressé dans une archive sobrement nommée love.tar.gz et exfiltré via une requête POST vers un serveur externe. Dans le cas d'AWS, le malware va plus loin : il se connecte directement au compte Amazon avec les clés volées pour y dérober d'autres secrets avant de les transmettre, grâce à une fonction baptisée def aws_req. JFrog avertit sans ambiguïté : quiconque a installé l'une de ces trois versions doit considérer que sa machine est compromise. La dernière version saine est la 2.5.0, mais les versions piégées restent accessibles dans l'historique PyPI. L'impact potentiel est considérable. Xinference est utilisée par des développeurs qui expérimentent ou déploient des modèles d'IA localement ou dans le cloud, un profil qui correspond à des équipes techniquement avancées disposant souvent d'accès à des infrastructures cloud, des dépôts de code privés et des environnements de production. Le vol de clés AWS ou de secrets d'environnement ne se limite pas à une compromission de la machine locale : il ouvre la porte à des attaques en cascade sur des systèmes entiers, des bases de données, voire des pipelines CI/CD. La nature automatique et silencieuse de l'exfiltration, rendue possible par la désactivation des sorties standard et d'erreur via un sous-processus Python, signifie que la plupart des victimes n'ont aucun moyen de détecter l'intrusion au moment où elle se produit. Cette attaque s'inscrit dans une série inquiétante visant spécifiquement l'écosystème des outils d'IA. En mars 2026, c'était Trivy, scanner de vulnérabilités, puis LiteLLM et Axios qui avaient été ciblés. JFrog attribue l'offensive contre Xinference au même groupe, TeamPCP, en s'appuyant sur la structure du code et les similitudes techniques avec les attaques précédentes, même si le compte X du groupe dément. La méthode reste inconnue : les mainteneurs de Xinference ont simplement confirmé l'attaque et retiré les versions corrompues sans expliquer comment les paquets officiels ont pu être modifiés. Cette opacité complique la réponse de la communauté et illustre les failles persistantes dans la chaîne d'approvisionnement logicielle open source, où la compromission d'un compte de mainteneur ou d'un pipeline de publication suffit à transformer un outil de confiance en vecteur d'attaque massif.

UELes développeurs européens ayant installé Xinference 2.6.0–2.6.2 doivent considérer leur environnement comme compromis et procéder immédiatement à la rotation de tous leurs secrets cloud, clés SSH et tokens d'accès.

SécuritéActu
1 source
NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents
64NVIDIA AI Blog 

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents

NVIDIA et Google Cloud ont annoncé cette semaine, lors de la conférence Google Cloud Next à Las Vegas, une nouvelle étape majeure dans leur partenariat vieux de plus de dix ans. Au cœur de l'annonce : le lancement des instances bare-metal A5X, alimentées par les systèmes rack NVIDIA Vera Rubin NVL72, qui promettent un coût d'inférence jusqu'à dix fois inférieur et un débit de tokens dix fois plus élevé par mégawatt par rapport à la génération précédente. Ces infrastructures s'appuient sur les interconnexions NVIDIA ConnectX-9 SuperNICs couplées au réseau Google Virgo de nouvelle génération, permettant de déployer des clusters allant jusqu'à 80 000 GPU Rubin sur un site unique, et jusqu'à 960 000 GPU dans une configuration multisite. Par ailleurs, Google Cloud met en préversion les modèles Gemini sur Google Distributed Cloud avec les GPU NVIDIA Blackwell et Blackwell Ultra, ainsi que des machines virtuelles confidentielles garantissant le chiffrement des données en cours d'utilisation. Des acteurs comme OpenAI et Thinking Machines Lab utilisent déjà ces infrastructures pour des charges d'inférence massives, notamment pour faire tourner ChatGPT. Ces annonces représentent un saut qualitatif significatif pour les entreprises qui cherchent à industrialiser l'IA agentique et l'IA physique, c'est-à-dire les systèmes capables d'agir de manière autonome dans des environnements réels, comme les robots ou les jumeaux numériques en usine. La réduction drastique des coûts d'inférence change concrètement l'équation économique pour les développeurs d'applications IA à grande échelle. La possibilité de déployer les modèles Gemini en environnement souverain, sur des données sensibles restant chiffrées y compris pendant leur traitement, répond à une exigence croissante des entreprises et des gouvernements en matière de conformité et de confidentialité. L'intégration de modèles ouverts NVIDIA Nemotron dans la plateforme Gemini Enterprise Agent Platform élargit également les options des équipes techniques qui souhaitent combiner modèles propriétaires et open source. Ce partenariat s'inscrit dans une compétition intense entre les grands fournisseurs de cloud pour capter les budgets d'infrastructure IA, qui se chiffrent désormais en dizaines de milliards de dollars annuellement. Google Cloud cherche à rattraper son retard sur AWS et Microsoft Azure, qui ont pris de l'avance sur l'hébergement des charges d'entraînement et d'inférence des grands modèles de langage. En s'associant étroitement à NVIDIA, dont les GPU dominent encore largement le marché de l'accélération IA, Google se positionne comme une plateforme de référence pour la prochaine vague, celle des agents autonomes et de la robotique industrielle. La feuille de route annoncée, avec la transition de Blackwell vers Vera Rubin, suggère que la cadence d'innovation s'accélère et que les entreprises devront adapter leur infrastructure régulièrement pour rester compétitives.

UELe déploiement souverain de Gemini sur Google Distributed Cloud avec chiffrement des données en cours d'utilisation répond aux exigences RGPD des entreprises européennes traitant des données sensibles.

InfrastructureOpinion
1 source
Gemini tourne désormais sur un serveur isolé du réseau, et s'efface si on coupe le courant
65VentureBeat AI 

Gemini tourne désormais sur un serveur isolé du réseau, et s'efface si on coupe le courant

Cirrascale Cloud Services a annoncé lors du Google Cloud Next 2026 à Las Vegas un accord élargi avec Google Cloud pour déployer le modèle Gemini en mode entièrement déconnecté, sur des serveurs physiques isolés d'internet. Cirrascale devient ainsi le premier fournisseur de cloud spécialisé à proposer le modèle phare de Google sous forme d'appliance privée, installée soit dans les centres de données de Cirrascale, soit directement dans les locaux du client. Le système repose sur un serveur certifié Google, fabriqué par Dell, équipé de huit GPU Nvidia et protégé par des mécanismes de calcul confidentiel. Une préversion est disponible immédiatement, avec une disponibilité générale attendue en juin ou juillet 2026. Dave Driggers, PDG de Cirrascale, a insisté sur un point clé : il s'agit du modèle Gemini complet, sans aucune restriction ni version allégée, déployé dans un environnement où les données d'entrée comme de sortie restent entièrement sous le contrôle du client. Fait notable sur le plan technique, les poids du modèle résident uniquement en mémoire volatile : dès que l'alimentation est coupée, le modèle disparaît sans laisser de trace persistante. Cette annonce répond à un problème structurel qui bloque depuis des années les secteurs régulés comme la finance, la santé, la défense et les administrations publiques. Ces organisations devaient jusqu'ici choisir entre accéder aux modèles les plus puissants via des API cloud publiques, au risque d'exposer leurs données sensibles à l'infrastructure d'un tiers, ou se contenter de modèles open source moins performants hébergés en interne. Le déploiement Cirrascale entend supprimer ce compromis. Driggers décrit l'escalade du problème de confiance : après les inquiétudes sur les données propriétaires confiées aux hyperscalers, les entreprises ont pris conscience que les prompts et les réponses générées étaient également récupérés par ces mêmes plateformes pour alimenter leurs propres systèmes, ce qui a rendu la demande de souveraineté totale incontournable. Cette évolution s'inscrit dans un mouvement plus large de migration des modèles d'IA frontier hors des centres de données des grands hyperscalers, vers les infrastructures propres des clients, ce qui représente une rupture avec la logique cloud dominante de la dernière décennie. Driggers distingue explicitement cette offre des déploiements on-premises proposés par Microsoft Azure avec les modèles OpenAI ou par AWS Outposts : dans ces cas, les modèles restent liés à l'infrastructure de leurs éditeurs. Ici, Google ne possède pas le matériel, et son modèle fonctionne en dehors de tout réseau Google. Pour le géant de Mountain View, accepter ce niveau de délégation sur son modèle le plus avancé traduit une stratégie commerciale claire : conquérir les marchés réglementés qui lui étaient jusqu'ici fermés, quitte à renoncer au contrôle direct de l'inférence.

UECe mode de déploiement air-gap répond directement aux exigences du RGPD et de l'AI Act en matière de souveraineté des données, ouvrant potentiellement Gemini aux administrations publiques, établissements de santé et institutions financières européennes soumis à des contraintes strictes de localisation et d'isolation des données.

💬 Le truc des poids uniquement en mémoire volatile, c'est la partie que je trouve la plus maligne. Parce que le blocage dans les secteurs régulés c'était pas juste "mes données sortent du réseau", c'était aussi "quelqu'un peut extraire ou copier le modèle", et là, coupe l'alimentation, ça disparaît. Google accepte de perdre le contrôle de l'inférence de son meilleur modèle pour aller chercher des marchés qui lui étaient fermés depuis des années. Ça, c'est un vrai mouvement.

InfrastructureOpinion
1 source
OpenAI lance GPT-Image-2
66Latent Space 

OpenAI lance GPT-Image-2

OpenAI a lancé GPT-Image-2 les 20 et 21 avril 2026, déployant simultanément le modèle sur ChatGPT, Codex et son API publique. La nouvelle version introduit deux variantes, l'une standard et l'une dotée d'un mode "thinking", ce dernier permettant au modèle de générer plusieurs candidats, de vérifier ses propres sorties et d'interroger le web lorsqu'il est couplé à un modèle de raisonnement. Les capacités mises en avant incluent le rendu de texte, la fidélité aux mises en page, l'édition d'images, le support multilingue et la génération d'artefacts visuels tels que diapositives, infographies, maquettes d'interface et QR codes. Sur les benchmarks Arena, GPT-Image-2 occupe la première place dans toutes les catégories de génération d'images : 1512 points en texte-vers-image, 1513 en édition mono-image, 1464 en édition multi-images, avec une avance de 242 points Elo sur le modèle suivant dans la catégorie texte-vers-image. Des outils tiers comme Figma, Canva, Adobe Firefly et fal ont déjà annoncé son intégration. Ce lancement représente davantage qu'une amélioration esthétique : GPT-Image-2 positionne la génération d'images comme une surface de travail professionnelle à part entière. Les réactions des développeurs convergent sur un point précis, le modèle est suffisamment fiable pour servir de référence visuelle dans des boucles de conception, de documentation technique et de prototypage d'interface. L'implication la plus structurante est que la génération d'images devient une porte d'entrée pour les agents de code : un développeur peut générer une maquette visuelle puis demander à Codex de l'implémenter directement, en utilisant l'image comme spécification. Ce flux de travail, jusqu'ici trop peu fiable pour être systématisé, devient crédible avec ce niveau de précision. Le lancement survient dans un contexte de recentrage stratégique chez OpenAI. Selon plusieurs sources, une période de concentration interne aurait précédé cette sortie, associée au départ ou à la réorganisation de l'équipe Sora, le projet de génération vidéo. Le fait que la génération d'images reste une priorité malgré ces turbulences est en soi significatif. En parallèle, d'autres acteurs avancent sur le terrain des agents : Hugging Face a présenté ml-intern, un agent open source automatisant l'ensemble de la boucle de recherche post-entraînement, avec des résultats publiés sur des benchmarks scientifiques comme GPQA, où les performances sont passées de 10% à 32% en moins de dix heures sur Qwen3-1.7B. Le même jour, Cursor aurait bouclé un accord à 60 milliards de dollars avec xAI. La semaine du 20 avril 2026 s'annonce comme l'une des plus denses de l'année en matière d'IA appliquée.

UEL'accès immédiat à l'API renforce la dépendance des entreprises et créatifs européens aux infrastructures américaines pour la génération d'images professionnelle.

CréationOpinion
1 source
Deepfakes utilisés comme armes
67MIT Technology Review 

Deepfakes utilisés comme armes

Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement. L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue. Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.

UEL'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.

SécuritéOpinion
1 source
Orchestration d'agents
68MIT Technology Review 

Orchestration d'agents

Les agents IA orchestrés en réseau constituent désormais la prochaine grande rupture technologique. Alors que ChatGPT a rendu les grands modèles de langage accessibles au grand public, les outils multi-agents représentent une étape qualitativement différente : des systèmes capables de déléguer, coordonner et exécuter des tâches complexes en parallèle. Claude Code, lancé par Anthropic l'année dernière, permet par exemple de piloter simultanément plusieurs dizaines de sous-agents, chacun affecté à une portion distincte d'une base de code. Chez OpenAI, Codex joue un rôle similaire. Anthropic affirme avoir développé son application de productivité Claude Cowork en seulement dix jours grâce à Claude Code, là où un projet comparable aurait nécessité plusieurs mois. Perplexity a également lancé Computer, un outil généraliste pour professionnels. Google DeepMind propose de son côté Co-Scientist, une plateforme qui permet aux chercheurs de confier à des équipes d'agents la recherche bibliographique, la génération d'hypothèses et la conception d'expériences. L'enjeu dépasse largement le secteur du logiciel. Ces outils s'adressent désormais à tous les cols blancs : gestion de boîtes mail, suivi d'inventaires, traitement des réclamations clients. La promesse centrale est de transformer le travailleur qualifié en chef de projet capable de superviser une équipe d'agents, multipliant ainsi sa productivité. Les partisans de cette technologie évoquent une rupture comparable à ce que la chaîne d'assemblage de Henry Ford a représenté pour l'industrie manufacturière au siècle dernier : une réorganisation profonde du travail de connaissance, potentiellement synonyme de suppressions massives de postes dans les fonctions tertiaires ou, à l'inverse, d'un bond de productivité sans précédent pour ceux qui sauront maîtriser ces outils. La montée en puissance de ces systèmes s'inscrit dans une dynamique portée par les géants de la tech. Des entreprises comme Nvidia et Tencent ont déjà commencé à développer leurs propres agents en s'appuyant sur des bases open source, comme celles popularisées par OpenClaw, un assistant personnel vocal qui avait capté l'attention malgré des failles de sécurité notoires. La vraie question qui se pose aujourd'hui n'est plus technique mais systémique : jusqu'où peut-on laisser des agents autonomes interagir avec des infrastructures critiques, des systèmes de santé, des plateformes financières ou des réseaux sociaux ? Les grands modèles de langage restent imprévisibles, et ce qui n'est qu'une erreur bénigne dans une interface de chat peut devenir un incident grave lorsque l'agent agit directement dans le monde réel. Le secteur avance vite, mais le cadre de contrôle, lui, peine à suivre.

UELa prolifération d'agents autonomes dans les fonctions tertiaires et les infrastructures critiques interpelle directement le cadre réglementaire européen, notamment l'AI Act qui classe certains usages d'agents autonomes comme systèmes à haut risque nécessitant audit et supervision humaine.

OutilsOutil
1 source
Google présente Simula : un framework de raisonnement pour générer des datasets synthétiques contrôlables dans des domaines IA spécialisés
69MarkTechPost 

Google présente Simula : un framework de raisonnement pour générer des datasets synthétiques contrôlables dans des domaines IA spécialisés

Google et l'École polytechnique fédérale de Lausanne (EPFL) ont présenté Simula, un nouveau cadre de génération de données synthétiques pensé pour les domaines spécialisés de l'IA, cybersécurité, raisonnement juridique, santé, où les données réelles sont rares, coûteuses ou inaccessibles pour des raisons de confidentialité. Contrairement aux approches classiques qui s'appuient sur des données de départ existantes ou des prompts artisanaux, Simula construit chaque jeu de données à partir de zéro, en traitant la génération de données comme un problème de conception de mécanismes. Le système décompose le processus en quatre étapes distinctes et contrôlables, pilotées par un modèle multimodal (appelé M3), et est capable de produire des jeux d'entraînement à très grande échelle, jusqu'à 512 000 exemples, tout en garantissant qualité, diversité et complexité simultanément. Le défi que Simula tente de résoudre est au cœur du prochain palier de développement de l'IA. Si les modèles généralistes ont pu s'entraîner sur l'immensité du web, les modèles spécialisés butent contre un mur : annoter manuellement des données dans des domaines pointus est lent, cher et sujet aux erreurs. Simplement demander à un grand modèle de langage de générer des données d'entraînement produit des résultats biaisés, répétitifs et peu complexes. Simula répond à cela par une architecture en taxonomies hiérarchiques, le système identifie d'abord les axes de variation d'un domaine (type d'attaque, classe de vulnérabilité, acteur menaçant pour la cybersécurité, par exemple), puis les développe en arbre pour couvrir les cas rares, avec une stratégie "Best-of-N" et une étape de critique automatique pour détecter les sous-catégories manquantes. La diversité locale est gérée par des "méta-prompts" générés à partir de combinaisons de nœuds taxonomiques, tandis qu'une fraction configurable d'exemples passe par une étape de complexification explicite. La publication de Simula s'inscrit dans une course plus large à la donnée synthétique de qualité, portée par des acteurs comme Microsoft, Meta ou des startups spécialisées, mais l'approche de Google se distingue par sa transparence méthodologique et son refus de dépendre de données sources existantes, ce qui ouvre la voie à des domaines où même les données de départ font défaut. L'enjeu est considérable : qui maîtrise la génération de données synthétiques contrôlées maîtrise potentiellement la capacité à entraîner des modèles surspécialisés sans contrainte réglementaire ni coût d'annotation. Google et l'EPFL ont publié leurs travaux via le blog de recherche Google, mais Simula n'est pas encore disponible en open source, la suite dépendra de la décision de Google d'ouvrir ou non l'accès à ce cadre à la communauté.

UEL'EPFL, partenaire européen clé de ce projet, positionne la recherche européenne en pointe sur la génération de données synthétiques, un enjeu stratégique pour les domaines sensibles (santé, droit) où les réglementations européennes comme le RGPD limitent fortement l'accès aux données réelles.

RecherchePaper
1 source
Moonshot AI publie Kimi K2.6 : codage longue portée et essaim d'agents à 300 sous-agents et 4 000 étapes coordonnées
70MarkTechPost 

Moonshot AI publie Kimi K2.6 : codage longue portée et essaim d'agents à 300 sous-agents et 4 000 étapes coordonnées

Moonshot AI, le laboratoire chinois d'intelligence artificielle à l'origine de l'assistant Kimi, a publié en open source le modèle Kimi K2.6 le 21 avril 2026. Il s'agit d'un modèle multimodal natif de type Mixture-of-Experts (MoE) comptant 1 000 milliards de paramètres au total, dont seulement 32 milliards activés par token, répartis entre 384 experts spécialisés. Le modèle intègre nativement la vision via un encodeur MoonViT de 400 millions de paramètres, prend en charge des contextes de 256 000 tokens, et est disponible sur Kimi.com, l'application mobile, l'API ainsi que le CLI Kimi Code. Les poids sont publiés sur Hugging Face sous licence MIT modifiée. Sur le benchmark SWE-Bench Pro, qui mesure la capacité à résoudre de vrais tickets GitHub dans des dépôts professionnels, K2.6 obtient 58,6 points, devançant GPT-5.4 (57,7), Claude Opus 4.6 (53,4) et Gemini 3.1 Pro (54,2). Sur Humanity's Last Exam avec outils, il atteint 54,0, surpassant tous ses concurrents directs. Ces résultats sont significatifs parce qu'ils signalent un changement de nature dans ce que les modèles peuvent accomplir sans supervision humaine. Kimi K2.6 a été conçu pour des tâches de codage longue durée où l'agent s'exécute de façon autonome pendant plusieurs heures, effectue des milliers d'appels d'outils et coordonne jusqu'à 300 sous-agents spécialisés en parallèle sur des séquences de 4 000 étapes. Moonshot documente deux cas concrets : dans le premier, le modèle a téléchargé et déployé un modèle Qwen3.5-0.8B sur un Mac, puis a implémenté et optimisé l'inférence en Zig, un langage de programmation rare, sur plus de 4 000 appels d'outils consécutifs. Ces capacités intéressent directement les équipes d'ingénierie qui cherchent à automatiser des cycles de développement complets, pas seulement des corrections ponctuelles. Cette publication s'inscrit dans une course intense entre laboratoires américains et chinois pour dominer les modèles agentiques à grande échelle. Moonshot rejoint ainsi Anthropic, OpenAI et Google DeepMind dans la catégorie des modèles conçus pour opérer de façon prolongée dans des environnements réels, un segment jugé stratégique pour les usages professionnels. Le fait que K2.6 partage la même architecture que son prédécesseur K2.5 facilite la migration pour les équipes qui l'avaient déjà déployé. La compatibilité avec les frameworks d'inférence vLLM, SGLang et KTransformers, ainsi que l'ouverture complète des poids, positionnent ce modèle comme une alternative sérieuse aux offres propriétaires pour les organisations souhaitant garder la main sur leur infrastructure. La prochaine étape pour Moonshot sera de démontrer ces performances dans des déploiements industriels à grande échelle, au-delà des benchmarks.

UELes organisations européennes souhaitant maîtriser leur infrastructure IA disposent avec Kimi K2.6 d'une alternative open source sous licence MIT, déployable en local via vLLM ou SGLang, ce qui facilite la conformité au règlement européen sur l'IA en matière de traçabilité et de contrôle des données.

💬 300 sous-agents, 4 000 étapes coordonnées, open source, et il passe devant GPT-5.4 sur du vrai code GitHub. C'est le genre de résultat qui force à lever les yeux du clavier. Le cas Zig m'a accroché : implémenter et optimiser de l'inférence dans un langage de niche sur des milliers d'appels sans supervision, c'est pas un benchmark artificiel, c'est la vraie vie d'un projet qui déborde. La vraie question maintenant, c'est ce que ça donne sur des codebases d'équipe avec de la dette technique et des specs qui changent en cours de route.

LLMsActu
1 source
Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée
71Le Big Data 

Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée

Mozilla a officialisé le 16 avril 2026 le lancement de Thunderbolt, une interface d'IA conçue pour un déploiement entièrement auto-hébergé en entreprise. Développé par MZLA Technologies, la filiale responsable de Thunderbird, l'outil se positionne comme un "client d'IA souverain" capable de se connecter à des modèles existants, Claude, Codex, DeepSeek ou tout modèle open source, via des API compatibles OpenAI ou ACP. Il repose sur Haystack, un framework open source reconnu pour la construction de pipelines d'IA modulaires. Thunderbolt est disponible en applications natives sur Windows, macOS, Linux, iOS, Android et en version web, avec le code source React accessible sur GitHub. Un audit de sécurité est actuellement en cours avant une mise en production à grande échelle, et Mozilla encourage déjà les entreprises à explorer des déploiements sur site avec des licences adaptées. L'argument central de Thunderbolt est son architecture entièrement locale : les données restent sur l'infrastructure de l'entreprise, notamment via une base SQLite hors ligne, sans transit vers des services cloud externes. Le système intègre un chiffrement de bout en bout et des contrôles d'accès au niveau des appareils. Pour les organisations soumises au RGPD, aux réglementations sectorielles strictes, santé, finance, défense, ou qui manipulent des données sensibles, c'est un différenciateur décisif face aux offres de Microsoft, Google ou OpenAI qui centralisent tout. Thunderbolt prend en charge les usages devenus standards : chat, recherche, automatisation et workflows multi-appareils, ce qui limite la friction à l'adoption pour des équipes habituées aux outils IA grand public. Ce lancement s'inscrit dans une stratégie plus large que Mozilla a formulée dès novembre 2025 : "faire pour l'IA ce que nous avons fait pour le web", c'est-à-dire construire un écosystème ouvert et décentralisé face aux géants de la Big AI. Mozilla.ai, sa branche dédiée à l'IA open source, soutient en parallèle le développement d'outils et de modèles ouverts. Le pari de Mozilla est celui de l'interopérabilité contre l'enfermement propriétaire, la même philosophie qui a fondé Firefox contre Internet Explorer à l'époque. La demande pour des solutions souveraines ne cesse de croître en Europe notamment, portée par des impératifs réglementaires et une méfiance croissante envers la dépendance aux hyperscalers américains. Thunderbolt arrive donc au bon moment sur un marché B2B où la souveraineté technologique est devenue un critère d'achat à part entière, et non plus un simple argument marketing.

UEThunderbolt offre aux entreprises européennes soumises au RGPD et aux réglementations sectorielles (santé, finance, défense) une solution concrète pour déployer des workflows IA en conservant leurs données sur leur propre infrastructure, sans dépendance aux hyperscalers américains.

💬 Mozilla qui sort l'artillerie lourde sur la souveraineté IA, ça fait plaisir à voir. L'architecture tout-local avec SQLite hors ligne, l'audit sécu avant le lancement, la compatibilité OpenAI API pour brancher ses propres modèles, bon, sur le papier c'est exactement ce que les DSI européens réclamaient. Reste à voir si ça tient face aux besoins réels des grandes boîtes, parce qu'entre une démo GitHub propre et un déploiement santé à 5 000 users, il y a souvent un gouffre.

OutilsOutil
1 source
Premiers tests : Opus 4.7 coûte nettement plus cher que 4.6 malgré les tarifs identiques d'Anthropic
72The Decoder 

Premiers tests : Opus 4.7 coûte nettement plus cher que 4.6 malgré les tarifs identiques d'Anthropic

Anthropic a maintenu les tarifs d'Opus 4.7 au même niveau que ceux de son prédécesseur Opus 4.6, avec un prix identique par token. Pourtant, les premières mesures réelles effectuées par des utilisateurs de Claude Code révèlent que chaque requête revient en pratique bien plus cher. La raison : un nouveau tokenizer intégré à Opus 4.7 qui décompose le même texte en jusqu'à 47 % de tokens supplémentaires. Autrement dit, un prompt identique génère désormais un volume de tokens sensiblement plus élevé, ce qui fait mécaniquement grimper la facture à chaque appel à l'API. Pour les développeurs qui utilisent Claude Code de manière intensive, l'impact est immédiat et concret. Sans aucune modification de leurs usages ni de leurs prompts, leurs coûts opérationnels augmentent de façon significative, potentiellement de l'ordre de 30 à 47 % selon les cas. Cette hausse déguisée contourne la communication officielle sur les prix et complique la planification budgétaire des équipes techniques qui s'appuient sur l'API d'Anthropic. Ce phénomène illustre une tension croissante dans l'industrie des LLM : les annonces tarifaires en prix par token masquent souvent des évolutions architecturales qui modifient profondément le coût réel d'utilisation. Anthropic n'est pas la première entreprise à opérer ce type de changement discret via une mise à jour de tokenizer. La publication de ces mesures par la communauté Claude Code devrait pousser Anthropic à clarifier sa communication, alors que la concurrence entre OpenAI, Google et les acteurs open source s'intensifie sur le terrain des prix.

UELes développeurs européens utilisant l'API Claude doivent anticiper une hausse réelle de leurs coûts opérationnels de 30 à 47 % lors du passage à Opus 4.7, sans que les tarifs officiels publiés par Anthropic n'en fassent mention.

💬 Le tarif par token n'a pas bougé, mais le nouveau tokenizer d'Opus 4.7 découpe le même texte en jusqu'à 47 % de morceaux de plus. Résultat : une facture en hausse de 30 à 47 % sans que la page de pricing d'Anthropic en souffle mot. C'est le genre de truc qu'on découvre en prod, pas dans un communiqué.

LLMsActu
1 source
IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise
73Le Big Data 

IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise

Mercor, une plateforme spécialisée dans le recrutement de travailleurs qualifiés pour l'entraînement de modèles d'IA, a été victime début avril 2026 d'une faille de sécurité liée à LiteLLM, un projet open source intégré à son infrastructure. Selon TechCrunch, la brèche a permis à des attaquants, identifiés comme le groupe ShinyHunters, de compromettre des échanges internes Slack ainsi que des interactions entre humains et systèmes d'IA. Mercor aurait versé une rançon pour limiter les dégâts. L'entreprise travaillait notamment avec OpenAI et Anthropic pour affiner leurs modèles. Des données à caractère personnel auraient été exposées, incluant selon Business Insider des adresses personnelles, des identifiants et potentiellement des numéros de sécurité sociale de travailleurs impliqués dans ces missions. Cet incident illustre une vulnérabilité structurelle qui dépasse le simple incident technique. Les entreprises qui externalisent l'entraînement de leurs modèles d'IA confient de fait des données internes sensibles à des tiers dont elles ne maîtrisent ni les pratiques de sécurité ni les standards de gouvernance. Quand ces tiers s'appuient eux-mêmes sur des outils open source comme LiteLLM, chaque dépendance devient un point d'entrée potentiel. Pour les directions RH et IT, cela signifie que l'entraînement de l'IA n'est plus seulement une question technique : c'est une extension directe de la gestion des données sensibles de l'entreprise, avec des conséquences juridiques et réglementaires directes en cas de fuite, notamment sous le RGPD. Le modèle économique de Mercor repose sur une externalisation massive : des travailleurs indépendants, souvent sous-employés, annotent et corrigent des modèles destinés en partie à automatiser leur propre travail. Ces profils interviennent au coeur de systèmes internes sans toujours connaître les entreprises ni les données qu'ils manipulent, créant une zone grise documentée par New York Magazine. StrikeGraph rappelle que toute la chaîne d'approvisionnement de l'IA repose sur une multiplicité d'acteurs externes, plateformes d'annotation, freelances et outils communautaires, dont chaque maillon peut être compromis. L'affaire Mercor marque un signal d'alarme pour l'ensemble du secteur : à mesure que les entreprises accélèrent leurs projets d'IA, la question du contrôle de la chaîne de sous-traitance devient aussi critique que celle des modèles eux-mêmes.

UELes entreprises européennes qui sous-traitent l'entraînement de modèles IA via des plateformes tierces s'exposent à des violations de données soumises au RGPD, avec des responsabilités juridiques directes en cas de fuite impliquant des données de travailleurs ou d'informations internes.

💬 Tu sous-traites l'entraînement de tes modèles à une plateforme qui s'appuie sur un outil open source que personne n'a vraiment audité, et tu t'étonnes qu'il y ait une faille ? Ce qui m'inquiète ici, c'est moins Mercor que le modèle lui-même : dès qu'un tiers touche à tes données internes pour affiner un LLM, tu perds le contrôle sur toute la chaîne. OpenAI et Anthropic en face, ça rassure sur le papier, mais la sécurité ça ne se délègue pas.

SécuritéOpinion
1 source
Mozilla lance un client IA Thunderbolt axé sur l'infrastructure auto-hébergée
74Ars Technica AI 

Mozilla lance un client IA Thunderbolt axé sur l'infrastructure auto-hébergée

Mozilla vient d'annoncer Thunderbolt, un nouveau client IA destiné aux entreprises qui souhaitent héberger leur propre infrastructure d'intelligence artificielle sans dépendre de services cloud tiers. Construit sur Haystack, un framework open source permettant de créer des pipelines IA modulaires et personnalisables, Thunderbolt se positionne comme ce que Mozilla appelle un "sovereign AI client". Il est compatible avec n'importe quelle API de type OpenAI ou ACP, incluant des modèles comme Claude, DeepSeek, Codex ou OpenCode, et peut s'appuyer sur une base de données SQLite locale comme référentiel de données hors ligne. Le système propose également un chiffrement de bout en bout optionnel et des contrôles d'accès au niveau de l'appareil. Pour les entreprises, l'enjeu est considérable : garder un contrôle total sur la pile technologique IA signifie que les données sensibles ne transitent jamais vers des serveurs externes. C'est une réponse directe aux craintes croissantes des organisations face aux risques de fuite de données confidentielles vers des fournisseurs cloud comme OpenAI ou Google. En permettant l'intégration de données d'entreprise stockées localement via des protocoles ouverts, Thunderbolt s'adresse en priorité aux secteurs soumis à des contraintes réglementaires strictes : finance, santé, défense ou administrations publiques. Mozilla entre ainsi sur un marché de plus en plus encombré de solutions IA souveraines, où des acteurs comme Mistral AI en France ou diverses initiatives européennes défendent déjà le principe d'une IA indépendante des géants américains. La démarche est cohérente avec l'ADN de Mozilla, organisation à but non lucratif historiquement engagée pour un internet ouvert et décentralisé. Thunderbolt représente un pivot stratégique pour la fondation, qui cherche à monétiser son positionnement éthique dans un marché IA dominé par quelques grandes plateformes. Les suites dépendront de l'adoption par les développeurs du framework Haystack sous-jacent et de la capacité de Mozilla à convaincre les équipes IT d'entreprise de franchir le pas vers l'auto-hébergement.

UELes entreprises européennes soumises au RGPD et à l'AI Act peuvent héberger leur infrastructure IA localement avec Thunderbolt, évitant le transfert de données sensibles vers des fournisseurs cloud américains.

OutilsOutil
1 source
NVIDIA lance AITune : un outil open source qui identifie automatiquement le backend d'inférence le plus rapide pour tout modèle PyTorch
75MarkTechPost 

NVIDIA lance AITune : un outil open source qui identifie automatiquement le backend d'inférence le plus rapide pour tout modèle PyTorch

NVIDIA a lancé AITune, un outil open source destiné à automatiser l'optimisation des modèles PyTorch pour l'inférence sur GPU. Disponible sous licence Apache 2.0 et installable via PyPI, cet outil s'adresse aux équipes qui déploient des modèles de deep learning en production et qui souhaitent éviter le travail d'ingénierie manuel habituellement requis pour choisir et configurer les backends d'optimisation. AITune prend en charge plusieurs frameworks, TensorRT, Torch-TensorRT, TorchAO et Torch Inductor, et les évalue automatiquement sur le matériel cible pour sélectionner le plus performant, sans que le développeur ait à intervenir. Il couvre une large gamme de cas d'usage : vision par ordinateur, traitement du langage naturel, reconnaissance vocale et IA générative. Le résultat de l'optimisation est sérialisé dans un fichier .ait, compilé une seule fois et rechargeable à chaque redéploiement sans temps de chauffe. L'outil répond à un problème concret qui ralentissait les équipes MLOps depuis des années : le fossé entre le modèle entraîné par un chercheur et le modèle réellement efficace en conditions de production. Jusqu'ici, comparer TensorRT, Torch-TensorRT ou TorchAO nécessitait de les configurer et tester séparément, souvent avec du code sur mesure. AITune effondre ce travail en une seule API Python. Il propose deux modes : un mode AOT (ahead-of-time), qui profile tous les backends, valide la correction des sorties et sélectionne le meilleur pour chaque sous-module du modèle ou de la pipeline, et un mode JIT (just-in-time), qui s'active via une variable d'environnement et optimise les modules à la volée sans modifier le code existant. Le mode AOT est le plus puissant : il détecte les axes dynamiques comme la longueur de séquence dans les LLMs, permet de mélanger différents backends dans une même pipeline, et met en cache les artefacts pour éviter de recompiler à chaque redéploiement. Ce lancement s'inscrit dans un effort plus large de NVIDIA pour simplifier le chemin entre la recherche et la production à mesure que la pression sur les coûts d'inférence s'intensifie. Avec la multiplication des modèles déployés à grande échelle, notamment des LLMs et des modèles de vision, le choix du backend d'optimisation est devenu un levier critique de rentabilité. TensorRT existe depuis plus d'une décennie, mais son intégration dans des pipelines PyTorch complexes restait laborieuse. En proposant une abstraction unifiée et automatisée, NVIDIA positionne AITune comme un outil de référence pour les équipes d'ingénierie ML, potentiellement en concurrence directe avec des solutions propriétaires ou des pipelines maison. La disponibilité en open source sous Apache 2.0 devrait favoriser une adoption rapide, notamment dans les entreprises qui cherchent à optimiser leurs coûts GPU sans investir dans des équipes spécialisées en compilation de modèles.

UELes équipes MLOps européennes peuvent adopter immédiatement cet outil open source via PyPI pour réduire leurs coûts d'inférence GPU en production, sans dépendance à des solutions propriétaires.

OutilsOutil
1 source
Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence
76Le Big Data 

Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence

Mistral AI, la licorne française valorisée 11,7 milliards d'euros, a publié un document détaillant 22 mesures d'urgence pour permettre à l'Europe de ne pas se laisser distancer par les États-Unis et la Chine dans la course à l'intelligence artificielle. Parmi les propositions phares figure la création d'une "AI blue card", un titre de séjour simplifié inspiré de la carte bleue européenne, destiné à faciliter l'installation de chercheurs et développeurs étrangers sur le continent. L'entreprise appelle également à instaurer une préférence européenne dans les marchés publics, à introduire des incitations fiscales pour l'adoption d'infrastructures locales, et à centraliser les oeuvres du domaine public afin d'alimenter l'entraînement des modèles d'IA sans dépendre des plateformes étrangères. Pour donner corps à sa vision, Mistral AI a levé 830 millions de dollars de dette, destinés notamment à la construction d'un centre de données en France, avec un objectif de plus d'un milliard d'euros de chiffre d'affaires d'ici 2026. Ces propositions s'attaquent à un déséquilibre structurel documenté : sur 1 400 milliards de dollars investis dans le numérique à l'échelle mondiale, 80 % sont captés par les États-Unis. L'Europe dispose des talents et d'une capacité de financement, mais peine à organiser un marché cohérent qui permette à ses acteurs de rivaliser. Si les mesures proposées par Mistral étaient adoptées, elles changeraient concrètement les règles du jeu pour les entreprises et administrations européennes, qui seraient incitées à privilégier des solutions locales plutôt que de s'appuyer sur AWS, Azure ou Google Cloud. Pour les chercheurs étrangers, la "AI blue card" représenterait un signal fort que l'Europe entend sérieusement concurrencer la Silicon Valley en matière d'attractivité. Ces propositions s'inscrivent dans un contexte de prise de conscience accélérée sur la souveraineté technologique en Europe. OpenAI elle-même a publié récemment 13 pages de recommandations sur l'encadrement de l'automatisation, signe que les grands acteurs cherchent à peser sur les débats réglementaires avant que les gouvernements ne tranchent. Mistral, fondée en 2023 par d'anciens chercheurs de DeepMind et Meta, s'est rapidement imposée comme le champion européen de l'IA générative, avec des modèles open source compétitifs face aux offres américaines. En publiant ce plan en 22 points, la startup sort d'une posture purement technique pour entrer dans le débat politique et industriel, à un moment où la Commission européenne et les États membres cherchent encore leur doctrine face à la montée en puissance des grands modèles. Les prochains mois seront décisifs : si ces mesures trouvent un écho à Bruxelles ou à Paris, elles pourraient redéfinir les conditions dans lesquelles se développe l'IA en Europe.

UEMistral AI, licorne française, propose 22 mesures concrètes, préférence européenne dans les marchés publics, 'AI blue card' pour les talents étrangers, incitations fiscales pour l'infrastructure locale, qui pourraient redéfinir les règles du jeu pour les entreprises et administrations françaises et européennes.

RégulationReglementation
1 source
Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI
77Siècle Digital 

Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI

Meta a lancé mercredi 8 avril son nouveau modèle d'intelligence artificielle baptisé Muse Spark, première production officielle des Meta Superintelligence Labs. Ce lancement représente le résultat d'un investissement de 14,3 milliards de dollars engagé par le groupe de Mark Zuckerberg dans sa course pour rivaliser avec Google et OpenAI sur le marché des modèles de fondation les plus avancés. Ce lancement marque un tournant stratégique pour Meta, qui cherche à dépasser son image de simple acteur open source. La famille Llama avait jusqu'ici construit la réputation d'un Meta généreux, distribuant ses modèles librement à la communauté des développeurs. Avec Muse Spark, l'entreprise semble viser un positionnement différent, plus orienté vers la compétition directe avec les modèles propriétaires de Google DeepMind et d'OpenAI. Pour les entreprises et développeurs qui avaient misé sur l'écosystème Llama, cette bifurcation soulève des questions sur la cohérence de la stratégie IA de Meta. Le contexte de ce lancement est tendu : Meta accélère ses dépenses en IA à un rythme inédit, alors que la concurrence entre grands modèles s'intensifie avec les sorties récentes de Gemini 2.0 et GPT-4o. La création des Meta Superintelligence Labs signale une réorganisation interne profonde, visant à concentrer les meilleurs talents sur les systèmes les plus ambitieux. Les prochains mois diront si Muse Spark peut réellement combler le retard accumulé face aux leaders du secteur.

UELe lancement de Muse Spark et le pivot stratégique de Meta vers le propriétaire oblige les entreprises et développeurs européens ayant misé sur l'écosystème Llama open source à réévaluer leurs choix d'infrastructure IA.

LLMsOpinion
1 source
Anthropic garde un nouveau modèle IA secret après avoir découvert des milliers de failles externes
78AI News 

Anthropic garde un nouveau modèle IA secret après avoir découvert des milliers de failles externes

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos Preview, dont les capacités en cybersécurité sont jugées trop dangereuses pour une diffusion publique. Ce modèle a déjà identifié des milliers de vulnérabilités dans les principaux systèmes d'exploitation et navigateurs web, notamment un bug vieux de 27 ans dans OpenBSD et une faille critique de 17 ans dans FreeBSD, la CVE-2026-4747, permettant à n'importe quel utilisateur non authentifié de prendre le contrôle total d'un serveur exposé sur internet. Cette dernière découverte a été réalisée de manière entièrement autonome, sans intervention humaine après la simple instruction initiale. Plutôt que de commercialiser le modèle, Anthropic a choisi de le confier discrètement à une coalition de partenaires fondateurs incluant Amazon Web Services, Apple, Cisco, Google, Microsoft, Nvidia, CrowdStrike, JPMorganChase et la Linux Foundation, auxquels s'ajoutent plus de 40 organisations gérant des infrastructures logicielles critiques. L'entreprise s'engage à mobiliser jusqu'à 100 millions de dollars en crédits d'utilisation et 4 millions de dollars en dons directs à des organisations de sécurité open source, dont 2,5 millions à Alpha-Omega et OpenSSF via la Linux Foundation, et 1,5 million à la Fondation Apache. L'enjeu dépasse la simple prouesse technique. Mythos Preview est capable de chaîner trois, quatre, voire cinq vulnérabilités distinctes pour construire des exploits sophistiqués, selon Nicholas Carlini, chercheur chez Anthropic, qui déclare avoir trouvé "plus de bugs ces dernières semaines que dans toute sa vie réunie". Le modèle sature désormais les benchmarks de sécurité existants, forçant Anthropic à se concentrer sur des tâches réelles inédites, notamment la découverte de failles zero-day. Newton Cheng, responsable de la Red Team cyber chez Anthropic, est explicite : les retombées d'une diffusion incontrôlée "pour les économies, la sécurité publique et la sécurité nationale pourraient être sévères". Pour les mainteneurs open source, qui gèrent des logiciels critiques sans équipes de sécurité dédiées, l'accès à ce type d'outil représente un rééquilibrage structurel : la sécurité de haut niveau cesse d'être un privilège réservé aux grands groupes. Cette initiative s'inscrit dans un contexte de tensions croissantes autour de l'IA offensive. Anthropic avait précédemment documenté le premier cas avéré d'une cyberattaque conduite majoritairement par des agents IA, un groupe soutenu par l'État chinois ayant infiltré une trentaine de cibles mondiales avec une autonomie tactique quasi totale. Les services de renseignement américains ont été informés en privé des capacités complètes de Mythos Preview et évaluent actuellement son impact potentiel sur les opérations offensives et défensives. Le projet Glasswing représente ainsi le pari d'Anthropic : diffuser les capacités défensives avant que les capacités offensives ne se propagent à des acteurs moins scrupuleux, dans une course contre la montre que la rapidité même des progrès de l'IA rend particulièrement incertaine.

UELes infrastructures open source européennes sont directement exposées aux vulnérabilités découvertes, notamment la CVE-2026-4747 affectant FreeBSD et un bug vieux de 27 ans dans OpenBSD, utilisés dans de nombreux systèmes critiques en Europe.

SécuritéActu
1 source
Anthropic a restreint son modèle d'IA le plus puissant pour des raisons de cybersécurité, puis l'a mis au travail
79AI News 

Anthropic a restreint son modèle d'IA le plus puissant pour des raisons de cybersécurité, puis l'a mis au travail

Anthropic a discrètement lancé Project Glasswing, une initiative de cybersécurité inédite fondée sur son modèle le plus puissant à ce jour, Claude Mythos Preview. Plutôt que de le commercialiser, l'entreprise l'a confié à un consortium de partenaires chargés de sécuriser les infrastructures critiques d'Internet : Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, Nvidia et Palo Alto Networks, auxquels s'ajoutent plus de 40 autres organisations. Anthropic s'engage à hauteur de 100 millions de dollars en crédits d'utilisation pour le modèle, ainsi que 4 millions de dollars en dons directs à des organisations de sécurité open source, dont 2,5 millions à Alpha-Omega et à l'OpenSSF via la Linux Foundation, et 1,5 million à la Apache Software Foundation. Les résultats déjà obtenus donnent le vertige : Mythos Preview a détecté de manière autonome un bug vieux de 27 ans dans OpenBSD, et a identifié et exploité sans intervention humaine une faille d'exécution de code à distance vieille de 17 ans dans FreeBSD, CVE-2026-4747, permettant à n'importe qui sur Internet de prendre le contrôle total d'un serveur. Nicholas Carlini, chercheur chez Anthropic, résume : « J'ai trouvé plus de bugs ces dernières semaines que dans tout le reste de ma carrière. » La décision de ne pas rendre Mythos Preview accessible au grand public est délibérée et assumée. Le modèle n'a pas été entraîné spécifiquement pour la cybersécurité, ses capacités offensives sont apparues comme une conséquence indirecte de progrès généraux en raisonnement, en code et en autonomie. Newton Cheng, responsable du Frontier Red Team Cyber d'Anthropic, l'explique sans détour : les mêmes améliorations qui rendent le modèle capable de corriger des vulnérabilités le rendent tout aussi capable de les exploiter. Et le risque ne relève pas de la spéculation : Anthropic a précédemment documenté ce qu'elle décrit comme le premier cyberattaque largement exécutée par une IA, menée par un groupe soutenu par l'État chinois qui a infiltré une trentaine de cibles mondiales, les agents IA gérant de manière autonome la majorité des opérations tactiques. Project Glasswing s'inscrit dans un contexte de course entre la diffusion des capacités offensives et la consolidation des défenses. Mythos Preview sature désormais la plupart des benchmarks de sécurité existants, forçant Anthropic à se tourner vers des tâches réelles inédites, notamment des vulnérabilités zero-day. L'initiative cible aussi un angle mort historique : les mainteneurs de logiciels open source, dont le code sous-tend une grande partie des infrastructures mondiales, ont longtemps manqué de ressources en sécurité. Anthropic a en parallèle briefé des responsables haut placés du gouvernement américain sur les capacités complètes du modèle, et les services de renseignement américains évaluent désormais activement comment il pourrait remodeler les opérations de piratage offensif et défensif dans les années à venir.

UELes infrastructures open source européennes (Linux Foundation, Apache Software Foundation) bénéficient de 4 millions de dollars de financements directs pour renforcer leur sécurité, et les systèmes critiques basés sur OpenBSD et FreeBSD utilisés en Europe sont directement concernés par les vulnérabilités zero-day découvertes.

SécuritéActu
1 source
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
80VentureBeat AI 

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

L'ère des agents IA autonomes est désormais une réalité concrète, portée par trois outils majeurs qui redéfinissent ce que les logiciels peuvent accomplir sans intervention humaine. OpenClaw, anciennement connu sous les noms Moltbot et Clawdbot, a dépassé les 150 000 étoiles sur GitHub en quelques jours après son lancement et s'installe directement sur les machines locales avec un accès profond au système : tri de boîte mail, réponses automatiques, curation de contenu, planification de voyages. Google Antigravity, lui, est un agent de développement doté d'un environnement intégré capable de passer d'une simple instruction à une application fonctionnelle, écriture, test, intégration et correction de bugs compris. Enfin, Anthropic a dévoilé Claude Cowork, un agent spécialisé pour des secteurs comme le droit et la finance, capable d'automatiser la revue de contrats ou le tri de documents juridiques. Son annonce a provoqué une chute notable des actions de sociétés de legal-tech et de SaaS, un phénomène rapidement baptisé "SaaSpocalypse" par les observateurs du marché. L'impact de ces agents va bien au-delà de la simple automatisation de tâches répétitives. En confiant à ces systèmes un accès à des données sensibles, fichiers personnels, détails financiers, documents légaux, les utilisateurs délèguent une autorité réelle sur des décisions à fort enjeu. Les risques sont proportionnels à la puissance accordée : un agent fiscal pourrait manquer des économies importantes ou, à l'inverse, inclure des déductions illégales ; un agent de développement pourrait injecter du code défectueux ou introduire des failles invisibles dans des systèmes critiques. La question de la confiance envers les fournisseurs comme Anthropic ou Google devient donc centrale, d'autant qu'OpenClaw, en tant que projet open source, ne dispose d'aucune autorité centrale de gouvernance pour encadrer les usages. Ce basculement vers l'IA agentique s'inscrit dans une trajectoire commencée fin 2022 avec l'émergence des chatbots conversationnels, mais qui s'accélère désormais vers des systèmes capables d'agir, pas seulement de répondre. La crainte d'une intelligence artificielle générale (AGI) n'est plus de la science-fiction pour de nombreux chercheurs. Face à ce chaos organisé, les experts s'accordent sur quelques impératifs : journalisation des actions des agents, validation humaine sur les décisions critiques, et développement d'une ontologie partagée permettant à des agents hétérogènes de communiquer dans un langage commun. Un cadre de responsabilité, de transparence et de sécurité, associé à une infrastructure d'identité distribuée, apparaît comme la condition sine qua non pour que ces écosystèmes agentiques tiennent leurs promesses sans déclencher la prochaine grande panique technologique.

UELa disruption des secteurs legal-tech et SaaS par des agents IA autonomes (droit, finance) menace directement des entreprises européennes positionnées sur ces marchés, sans cadre réglementaire adapté à ce niveau d'autonomie agentique.

OutilsOutil
1 source
Meta lance Muse Spark, son premier modèle IA propriétaire depuis la création des Superintelligence Labs
81VentureBeat AI 

Meta lance Muse Spark, son premier modèle IA propriétaire depuis la création des Superintelligence Labs

Meta a lancé ce mercredi un nouveau modèle d'intelligence artificielle propriétaire baptisé Muse Spark, marquant un tournant radical dans la stratégie de l'entreprise. Présenté comme "le modèle le plus puissant jamais publié par Meta" selon Alexandr Wang, directeur de l'IA de 29 ans et ancien co-fondateur de Scale AI recruté par Mark Zuckerberg, Muse Spark inaugure une nouvelle famille de modèles et intègre des capacités inédites : raisonnement visuel natif, utilisation d'outils, et orchestration multi-agents. Contrairement aux modèles Llama qui ont fait la réputation de Meta depuis 2023, Muse Spark est entièrement propriétaire, disponible uniquement via l'application Meta AI, son site web, et une "API privée en accès limité" pour des utilisateurs sélectionnés. Aucun tarif n'a encore été communiqué. Sur les benchmarks, le mode "Contemplating", qui orchestre plusieurs sous-agents en parallèle pour raisonner simultanément, affiche 58 % sur "Humanity's Last Exam" et 38 % sur "FrontierScience Research", des résultats que Meta présente comme une validation de sa nouvelle trajectoire de développement. Autre performance notable : le modèle atteint ces capacités de raisonnement avec plus de dix fois moins de puissance de calcul que Llama 4 Maverick, grâce à une technique appelée "thought compression" qui pénalise le modèle lors de l'apprentissage par renforcement lorsqu'il consomme trop de tokens de raisonnement. Ce lancement représente un changement de cap majeur pour une entreprise qui avait bâti une communauté massive, littéralement des milliards d'utilisateurs et des milliers de développeurs, sur l'ouverture de ses modèles Llama. Le passage au propriétaire risque de provoquer des remous dans cet écosystème, notamment parmi les développeurs actifs sur des communautés comme r/LocalLLaMA. Sur le plan technique, Muse Spark n'est pas une mise à jour incrémentale : il a été conçu dès la base pour intégrer nativement la vision et le texte, ce qui lui permet d'analyser des environnements dynamiques, corriger la posture d'un utilisateur via une vidéo en temps réel, ou identifier les composants d'une machine à expresso complexe. Cette architecture multimodale native le positionne directement face à Gemini Deep Think de Google et GPT-5.4 Pro d'OpenAI sur le segment des modèles de raisonnement avancé, un marché en pleine intensification. Le contexte de ce lancement est celui d'une crise interne surmontée à marche forcée. Le déploiement chaotique de Llama 4 au printemps 2025, entaché d'accusations de manipulation de benchmarks, avait conduit Zuckerberg à restructurer entièrement les opérations IA de Meta durant l'été 2025, avec la création de Meta Superintelligence Labs (MSL) confiée à Wang. Muse Spark est le premier résultat public de cette nouvelle organisation. Il incarne également la vision de "superintelligence personnelle" que Zuckerberg avait exposée dans un manifeste public l'été dernier, une IA qui ne traite pas seulement du texte mais "voit et comprend le monde autour de vous". La question qui reste ouverte, et que Meta n'a pas encore tranchée publiquement, est celle de l'avenir de la famille Llama : abandon définitif, développement parallèle, ou repositionnement sur un segment différent ? La réponse engagera la confiance d'une communauté open source que Meta a mis trois ans à construire.

UELe virage propriétaire de Meta fragilise les entreprises et chercheurs européens qui s'appuyaient sur Llama pour des déploiements locaux souverains, accentuant leur dépendance aux infrastructures américaines.

Meta lance Muse Spark, son premier modèle frontier à poids fermés
82The Decoder 

Meta lance Muse Spark, son premier modèle frontier à poids fermés

Meta Superintelligence Labs a lancé Muse Spark, son premier modèle dit « frontier » et surtout le premier de Meta à ne pas être distribué en open weights. C'est une rupture nette avec la stratégie qui a fait la réputation de l'entreprise : depuis la série Llama, Meta avait systématiquement publié les poids de ses modèles, se positionnant comme le champion de l'IA ouverte face à OpenAI et Anthropic. Les premiers tests indépendants placent Muse Spark dans la course aux meilleurs modèles du marché, réduisant l'écart avec GPT-4o, Claude et Gemini. Ce changement de posture a des implications directes pour l'industrie. Un modèle frontier fermé chez Meta signifie que l'entreprise entend désormais monétiser directement ses capacités les plus avancées, plutôt que de les offrir comme infrastructure commune à l'écosystème. Pour les développeurs et entreprises qui s'appuyaient sur les modèles Llama gratuits et modifiables, cela marque une limite : les capacités de pointe restent désormais derrière une API contrôlée. Ce pivot s'inscrit dans une dynamique de consolidation du secteur où chaque grand acteur cherche à transformer ses investissements massifs en avantages compétitifs durables. Meta a dépensé des dizaines de milliards en infrastructure GPU ces dernières années, et la pression des actionnaires pour rentabiliser ces dépenses est forte. La création de Meta Superintelligence Labs, structure dédiée à la recherche de pointe, signale une ambition de rivaliser frontalement avec OpenAI et Anthropic, et non plus seulement de les contourner par l'open source.

UELes développeurs et entreprises européens qui bâtissaient leurs produits sur les modèles Llama en open weights devront désormais passer par une API fermée et payante pour accéder aux capacités frontier de Meta, remettant en question leurs modèles économiques.

BusinessOpinion
1 source
Anthropic juge son modele IA cyber le plus puissant trop dangereux pour etre publie, et lance Project Glasswing
83VentureBeat AI 

Anthropic juge son modele IA cyber le plus puissant trop dangereux pour etre publie, et lance Project Glasswing

Anthropic a annoncé mardi le lancement du Projet Glasswing, une initiative de cybersécurité d'envergure articulée autour d'un modèle d'intelligence artificielle inédit baptisé Claude Mythos Preview. Jugé trop puissant pour une diffusion publique, ce modèle est déployé en accès restreint auprès d'une coalition de douze grandes entreprises technologiques et financières, parmi lesquelles Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, Nvidia et Palo Alto Networks. Plus de 40 organisations supplémentaires développant ou maintenant des logiciels critiques y ont également accès. Anthropic engage jusqu'à 100 millions de dollars en crédits d'utilisation pour Claude Mythos Preview dans le cadre de ce programme, ainsi que 4 millions de dollars en dons directs à des organisations de sécurité open source. Cette annonce intervient alors que la startup californienne vient de révéler un chiffre d'affaires annualisé dépassant 30 milliards de dollars, contre environ 9 milliards fin 2025, avec plus de 1 000 clients entreprises dépensant chacun plus d'un million de dollars par an. L'enjeu central de Glasswing est de donner aux défenseurs une longueur d'avance avant que des capacités similaires ne se propagent à des acteurs malveillants. Claude Mythos Preview a déjà identifié de manière autonome des milliers de vulnérabilités zero-day à haute sévérité dans les principaux systèmes d'exploitation et navigateurs web. Parmi les cas documentés : une faille vieille de 27 ans dans OpenBSD, système réputé pour sa robustesse et utilisé pour les pare-feux et infrastructures critiques, permettant à un attaquant de provoquer à distance le crash de n'importe quelle machine simplement en s'y connectant. Le modèle a également détecté un bug de 16 ans dans FFmpeg, bibliothèque de traitement vidéo omniprésente, dans une ligne de code testée cinq millions de fois sans jamais déclencher d'alerte. Ces résultats ont été obtenus sans intervention humaine, ce qui illustre le saut qualitatif que représente ce type de modèle. Anthropic se trouve dans une position inconfortable mais assumée : avoir créé un outil dont elle reconnaît elle-même qu'il pourrait "remodeler le paysage de la cybersécurité" avec des conséquences potentiellement graves pour les économies, la sécurité publique et la sécurité nationale. Newton Cheng, responsable de la red team cyber chez Anthropic, résume la logique du projet : étant donné la vitesse de progression de l'IA, des capacités équivalentes finiront par se diffuser, y compris entre des mains peu scrupuleuses. Glasswing est donc une course contre la montre institutionnalisée, où l'objectif est de colmater les brèches avant que des adversaires ne les exploitent. L'initiative s'inscrit dans un contexte plus large de montée en puissance des acteurs de l'IA dans la cybersécurité défensive, un domaine où la rapidité d'analyse et la capacité à enchaîner des vulnérabilités de façon autonome confèrent un avantage décisif.

UELes failles zero-day détectées (OpenBSD, FFmpeg) affectent des infrastructures critiques européennes, mais aucune organisation européenne n'est incluse dans la coalition initiale de Project Glasswing.

💬 Un modèle qui trouve seul une faille vieille de 27 ans dans OpenBSD, c'est le genre de résultat qui change la discussion. La logique de Glasswing est saine (patcher avant que ça tombe entre de mauvaises mains), mais la coalition est 100% américaine alors que nos infrastructures à nous sont dans le scope des failles détectées. Ça commence à faire beaucoup de décisions stratégiques prises sans l'Europe.

SécuritéOpinion
1 source
Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026
84VentureBeat AI 

Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026

Lors de la conférence GTC 2026, Jensen Huang a présenté lundi l'Agent Toolkit de Nvidia, une plateforme open source destinée à la création d'agents d'IA autonomes en entreprise. Dix-sept géants du logiciel ont immédiatement annoncé leur adoption : Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian, Cadence, Synopsys, IQVIA, Palantir, Box, Cohesity, Dassault Systèmes, Red Hat, Cisco et Amdocs. La plateforme regroupe quatre composants clés : Nemotron, une famille de modèles ouverts optimisés pour le raisonnement agentique ; AI-Q, un blueprint permettant aux agents de percevoir, raisonner et agir sur les données d'entreprise ; OpenShell, un environnement d'exécution open source imposant des garde-fous de sécurité, de réseau et de confidentialité ; et cuOpt, une bibliothèque d'optimisation. Ces agents peuvent traiter des tickets de support client, concevoir des semi-conducteurs, gérer des essais cliniques ou piloter des campagnes marketing, le tout de façon autonome. L'enjeu commercial est considérable. En faisant adopter cette pile logicielle par des entreprises présentes dans pratiquement chaque secteur du Fortune 500, Nvidia ne vend pas directement ses GPU — il conçoit un écosystème logiciel qui les rend indispensables. Le composant AI-Q promet par ailleurs de réduire les coûts de traitement de plus de 50 % en routant les tâches complexes vers des modèles frontier et les tâches de recherche vers les modèles Nemotron moins coûteux. Nvidia revendique également que son agent basé sur AI-Q se classe en tête des benchmarks DeepResearch Bench et DeepResearch Bench II, ce qui, si validé indépendamment, rendrait la plateforme non seulement pratique mais compétitivement incontournable. La confiance des entreprises, obstacle historique au déploiement d'agents autonomes, est adressée via OpenShell, développé en collaboration avec Cisco, CrowdStrike, Google, Microsoft Security et TrendAI. Cette annonce s'inscrit dans une stratégie plus large de Nvidia pour étendre son emprise au-delà du matériel. Jusqu'ici, construire un agent d'IA d'entreprise nécessitait d'assembler des briques disparates — modèle de langage, système de récupération d'information, couche de sécurité, orchestrateur — issues de fournisseurs différents jamais conçus pour fonctionner ensemble. Nvidia résout ce problème de fragmentation en proposant une fondation unifiée, open source dans sa licence mais optimisée pour ses propres puces. La stratégie rappelle celle d'une infrastructure de péage : ouverte à tous, mais dont Nvidia contrôle l'architecture. Alors que les entreprises s'apprêtent à déployer massivement des agents autonomes dans leurs systèmes informatiques, la question n'est plus tant de savoir si elles adopteront ces outils, mais si une alternative crédible à l'écosystème Nvidia pourra émerger avant que la dépendance ne soit totale.

UESAP, Siemens et Dassault Systèmes figurent parmi les 17 premiers adopteurs, exposant les grandes entreprises européennes à une dépendance croissante envers l'écosystème logiciel et matériel de Nvidia pour leurs déploiements d'agents IA.

OutilsOpinion
1 source
[AINews] Vendredi Saint
85Latent Space 

[AINews] Vendredi Saint

Google a lancé Gemma 4 le 3 avril 2026, sous licence Apache 2.0, marquant un tournant dans sa stratégie open source. La famille de modèles comprend plusieurs variantes, dont le 26B A4B (une architecture MoE, mixture of experts) et le modèle 31B, conçus pour le raisonnement, les workflows agentiques, la multimodalité et l'usage sur appareil local. Dès le premier jour, l'écosystème était prêt : vLLM, llama.cpp, Ollama, Intel (Xeon, Xe GPU, Core Ultra), Unsloth et Hugging Face Inference Endpoints ont tous annoncé une compatibilité immédiate. François Chollet a qualifié Gemma 4 de modèle open source le plus solide jamais produit par Google, recommandant le backend JAX via KerasHub, tandis que Demis Hassabis a mis en avant l'efficacité du modèle, qui surpasserait des modèles dix fois plus grands selon les benchmarks internes. Les premiers tests sur matériel grand public confirment des performances remarquables : 162 tokens par seconde sur une RTX 4090 à 19,5 Go de VRAM, 34 tokens par seconde sur un Mac mini M4 avec 16 Go de RAM, et même un portage fonctionnel sur iPhone via Swift MLX. L'importance de cette sortie tient autant à la licence qu'aux performances. En optant pour Apache 2.0, Google lève les restrictions habituelles sur l'usage commercial et la redistribution, ce qui ouvre la voie à une intégration dans des produits tiers sans friction juridique. Clément Delangue (Hugging Face) et plusieurs autres acteurs du secteur ont salué ce choix comme une vraie libération des poids, contrairement aux licences restrictives qui avaient accompagné des releases précédentes. Sur le plan technique, la compression TurboQuant réduit le cache KV de 13,3 Go à 4,9 Go pour le modèle 31B à 128 000 tokens de contexte, ce qui rend ce niveau de performance accessible sur du matériel abordable. Le modèle E4B est même présenté comme capable de tourner directement sur smartphones et ordinateurs portables. En parallèle de Gemma 4, le framework agentique open source Hermes Agent, développé par Nous Research, s'impose comme la surprise de la journée. De nombreux développeurs ont signalé avoir migré depuis OpenClaw vers Hermes, citant une meilleure stabilité sur les tâches longues. L'équipe de Nous a livré une infrastructure concrète : un système de mémoire modulaire compatible avec plusieurs backends (Honcho, mem0, Hindsight, RetainDB), une création autonome de compétences et une mémoire procédurale réutilisable. La thèse émergente dans la communauté est que l'avantage compétitif ne réside plus seulement dans le modèle lui-même, mais dans le harness, c'est-à-dire le système d'orchestration qui l'entoure. Cette double actualité, un modèle de base puissant et libre d'un côté, un framework agentique mature de l'autre, dessine les contours d'un écosystème open source qui se rapproche sérieusement des capacités propriétaires.

UEHugging Face (entreprise française) a intégré Gemma 4 en priorité dans ses Inference Endpoints sous licence Apache 2.0, offrant aux développeurs et entreprises européennes un accès immédiat à un modèle open source exploitable commercialement sans restriction juridique.

LLMsActu
1 source
Google lance la famille de modèles ouverts Gemma 4
86AI Business 

Google lance la famille de modèles ouverts Gemma 4

Google a lancé Gemma 4, une nouvelle famille de modèles d'IA open source conçue pour le raisonnement avancé et les capacités multimodales. Héritière de la série Gemma, cette offre s'inscrit dans la stratégie de Google DeepMind de proposer des modèles accessibles aux développeurs et chercheurs, utilisables localement ou dans le cloud. La famille comprend plusieurs variantes de tailles différentes, adaptées à des usages allant des appareils mobiles aux serveurs de production. L'arrivée de Gemma 4 renforce l'arsenal open source disponible pour les équipes techniques qui ne veulent pas dépendre exclusivement de modèles propriétaires via API. Les capacités multimodales — traitement combiné de texte et d'images — ouvrent la voie à des applications concrètes dans l'analyse documentaire, la vision par ordinateur et les assistants enrichis. Pour les entreprises soucieuses de confidentialité ou de coûts d'inférence, un modèle performant déployable en local représente un avantage opérationnel direct. Google s'inscrit ainsi dans une compétition ouverte avec Meta (LLaMA), Mistral et d'autres acteurs qui misent sur l'open source pour gagner l'adhésion des développeurs. La série Gemma, lancée début 2024, avait déjà rencontré un accueil favorable grâce à ses performances compétitives à taille réduite. Avec Gemma 4, Google cherche à consolider sa position dans cet écosystème, alors que le débat entre modèles ouverts et fermés reste central dans l'industrie de l'IA.

UELes équipes techniques et entreprises européennes disposent d'une nouvelle famille open source déployable en local, réduisant la dépendance aux APIs propriétaires et facilitant la conformité RGPD.

Meta TRIBE v2 : la première IA qui simule les réactions du cerveau humain
87Le Big Data 

Meta TRIBE v2 : la première IA qui simule les réactions du cerveau humain

Meta a présenté le 26 mars 2026 TRIBE v2 (Trimodal Brain Encoder), un modèle d'intelligence artificielle open source capable de prédire l'activité cérébrale humaine en réponse à une image, un son ou un texte. Entraîné sur plus de 500 heures d'enregistrements IRM fonctionnelle issus de plus de 700 participants, le modèle simule l'activation de près de 70 000 voxels cérébraux — des unités tridimensionnelles qui traduisent les variations de flux sanguin dans le cerveau. Son architecture repose sur trois étages : des encodeurs spécialisés par modalité (V-JEPA pour la vision, Wav2Vec2-BERT pour l'audio, Llama 3.x pour le texte), un module Transformer qui aligne ces signaux dans le temps pour tenir compte du délai entre perception et activation cérébrale, puis une couche de projection qui produit une carte prédictive des activations. Les performances annoncées sont deux à trois fois supérieures aux approches antérieures, et le modèle fonctionne en zero-shot : il prédit l'activité d'un nouveau sujet sans recalibrage individuel préalable, ce qui est rare dans ce domaine. Cette capacité de généralisation change la donne pour la recherche en neurosciences cognitives. Jusqu'ici, tout travail d'exploration cérébrale exigeait un accès à un scanner IRM, une infrastructure lourde et coûteuse. TRIBE v2 ouvre la possibilité de simuler des réponses cérébrales à grande échelle, à partir de n'importe quel contenu numérique, sans contrainte matérielle. Pour les chercheurs en perception sensorielle, en troubles cognitifs ou en interfaces cerveau-machine, cela représente un accélérateur potentiel considérable. Dans l'industrie, le modèle pourrait être utilisé pour évaluer l'impact attentionnel d'un contenu publicitaire, d'une interface ou d'un environnement sonore — des applications qui posent déjà des questions éthiques sur l'usage de modèles prédictifs du comportement cérébral. TRIBE v2 s'inscrit dans une trajectoire entamée avec la première version du modèle, qui avait remporté l'Algonauts 2025 Brain Encoding Challenge, une compétition internationale de référence sur la prédiction de l'activité cérébrale. Meta franchit ici une étape qualitative en passant d'un modèle sujet-spécifique à un modèle généraliste, capable de capturer des régularités cérébrales communes à travers une population large et diversifiée. La décision de publier TRIBE v2 en open source reflète la stratégie globale de Meta AI en matière de recherche fondamentale : rendre les outils disponibles à la communauté scientifique pour accélérer l'adoption et positionner l'entreprise comme acteur central de l'IA cognitive. Reste à voir comment la communauté s'emparera de ces capacités, et quels garde-fous encadreront des usages potentiellement intrusifs de la modélisation cérébrale prédictive.

UELes chercheurs européens en neurosciences cognitives peuvent accéder librement à TRIBE v2 pour simuler des réponses cérébrales à grande échelle sans infrastructure IRM, ouvrant de nouvelles perspectives pour la recherche sur les troubles cognitifs et les interfaces cerveau-machine.

💬 Le zero-shot sur des prédictions d'activité cérébrale, c'est le truc qui m'impressionne ici, pas la com' de Meta. Jusqu'ici, tout modèle de ce genre demandait un recalibrage par sujet, une IRM, une infra complète — là, tu balances un contenu, le modèle te sort une carte d'activation sans scanner. La question c'est pas si la recherche en neurosciences va s'en emparer, c'est si les équipes pub' vont l'utiliser avant elles.

RecherchePaper
1 source
Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…
88Next INpact 

Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…

Une institution française a récemment été victime d'une cyberattaque exploitant une technique d'injection de prompt ciblant le chatbot intégré à son site web, vraisemblablement développé sur WordPress. Les pirates, qui se présentent eux-mêmes comme des « gentils hackers », ont revendiqué l'attaque sur Breachforums, forum de référence des cybercriminels, en détaillant publiquement leur méthode. Plutôt que de publier des échantillons de données volées — pratique habituelle pour prouver un accès — ils ont contacté l'entreprise pour exiger une rançon en échange des informations exfiltrées. L'opération a permis aux attaquants d'obtenir des droits administrateur sur le site cible et de siphonner ses données, dont des correspondances privées d'utilisateurs que les pirates qualifient pudiquement de « victimes collatérales ». Cette attaque illustre concrètement un risque que la communauté sécurité documente depuis des années mais que l'industrie peine à adresser : l'injection de prompt reste l'un des vecteurs d'attaque les plus sous-estimés contre les IA génératives déployées en production. OpenAI elle-même a reconnu que ce type de vulnérabilité constituera « un défi pour de nombreuses années ». Pour les entreprises qui intègrent des chatbots — souvent de simples surcouches de ChatGPT rebadgées — sans audit de sécurité sérieux, le risque est réel et immédiat : prise de contrôle administrative, exfiltration de données clients, chantage. Le modèle économique des chatbots de service client bas de gamme crée une surface d'attaque massive, directement exposée au public. L'injection de prompt est en réalité la réincarnation moderne de l'injection SQL des années 2000 : on manipule les instructions données à un système pour lui faire exécuter des actions non prévues. Les techniques documentées vont des instructions explicites (« ignore toutes les consignes précédentes ») aux contenus cachés dans des images ou du texte invisible. Cette attaque survient dans un contexte de recrudescence des incidents liés aux IA et aux fuites de données en France : début avril 2026 a déjà vu la propagation virale de malwares dans des projets open source via les outils Trivy et LiteLLM, ainsi que la compromission de la bibliothèque JavaScript Axios. S'y ajoutent des fuites sensibles comme celle du fichier SIA du ministère de l'Intérieur — exposant les adresses de détenteurs d'armes — et le cas Florajet, où plus d'un million de messages intimes accompagnant des commandes de fleurs ont été exfiltrés, ouvrant la voie à du chantage ciblé. La multiplication de ces incidents souligne l'urgence d'un encadrement technique plus strict des déploiements IA en contact direct avec les utilisateurs.

UEUne institution française a été compromise via injection de prompt sur son chatbot, avec exfiltration de données et tentative de rançon, illustrant un risque immédiat pour toute organisation française déployant des chatbots en production sans audit de sécurité.

💬 L'injection de prompt, c'est l'injection SQL version 2025, et on le sait depuis que les premiers chatbots en prod sont apparus. Ce qui est nouveau, c'est que maintenant ça arrive en vrai, sur de vraies institutions françaises, avec de vraies données exfiltrées et une vraie demande de rançon. Les "gentils hackers" qui contactent l'entreprise plutôt que de balancer les données, bon, c'est presque touchant, mais ça ne change pas grand-chose à l'affaire : si tu colle un chatbot WordPress en production sans audit sécurité, tu viens d'ouvrir une porte d'entrée admin au premier qui sait taper "ignore toutes les instructions précédentes".

SécuritéOpinion
1 source
Mistral : Voxtral TTS, Forge, Leanstral et l'avenir de Mistral 4 — avec Pavan Kumar Reddy et Guillaume Lample
89Latent Space 

Mistral : Voxtral TTS, Forge, Leanstral et l'avenir de Mistral 4 — avec Pavan Kumar Reddy et Guillaume Lample

Mistral AI a lancé cette semaine Voxtral TTS, son premier modèle de synthèse vocale (text-to-speech), marquant une nouvelle étape dans l'expansion rapide de la startup française. Basé sur une version 4 milliards de paramètres de Ministral, ce modèle multilingue supporte neuf langues et se distingue par sa faible latence, ce qui le rend adapté aux applications temps réel. Les benchmarks internes indiquent un taux de victoire de 68,4 % face à ElevenLabs Flash v2.5 — l'une des références du secteur — tout en étant commercialisé à une fraction du coût des concurrents. Le modèle est publié en open weights, ce qui signifie que n'importe qui peut le télécharger et l'exécuter localement. L'annonce a été faite par Guillaume Lample, co-fondateur et Chief Scientist de Mistral, et Pavan Kumar Reddy, responsable de la recherche audio, lors d'une apparition dans le podcast Latent Space. L'impact de ce lancement dépasse la simple performance technique. En proposant un modèle TTS de qualité comparable à ElevenLabs — longtemps considéré comme le gold standard du secteur — mais à coût réduit et en open source, Mistral redéfinit l'accès à la synthèse vocale professionnelle. Les entreprises qui intégraient jusqu'ici des APIs vocales propriétaires peuvent désormais envisager des alternatives autohébergées, réduisant leur dépendance et leurs coûts. Pour les développeurs d'agents vocaux temps réel — un marché en forte croissance — le couple latence faible / open weights est particulièrement attractif. La dimension privacy est également centrale : déployer le modèle en local permet de traiter de l'audio sensible sans transmettre de données à des services tiers. L'architecture de Voxtral TTS est elle-même une contribution de recherche notable. Mistral a développé en interne une approche originale combinant génération auto-régressive de tokens sémantiques avec du flow matching pour les tokens acoustiques — une technique empruntée au domaine de la génération d'images, rarement appliquée à l'audio. L'entreprise a également conçu son propre codec neural audio. Ce lancement s'inscrit dans une dynamique soutenue : Mistral avait déjà publié un premier modèle audio, Voxtral ASR, pour la transcription multilingue, ainsi que des mises à jour ajoutant du context biasing, du timestamping et de la transcription en streaming. Rappelons que Mistral a levé la plus grande série de financement de l'histoire de l'IA européenne en 2024, et enchaîne les sorties de modèles à un rythme difficile à suivre. Avec Voxtral TTS, la startup confirme son ambition de couvrir l'ensemble de la pile IA — texte, code, vision, et désormais voix — tout en maintenant un positionnement open weights distinctif face aux géants américains.

UEMistral, startup française leader de l'IA européenne, propose une alternative open weights aux APIs vocales propriétaires américaines, permettant aux entreprises françaises et européennes de déployer la synthèse vocale en local sans dépendance à des services tiers.

💬 Un modèle TTS open weights qui bat ElevenLabs sur la latence et coûte une fraction du prix, c'est exactement le genre de sortie qui va faire mal à des acteurs qui vivaient sur leur avance technique. Ce qui m'intéresse surtout, c'est l'archi : du flow matching pour les tokens acoustiques, emprunté à la génération d'image, c'est un pari de recherche pas évident et visiblement ça paye. Reste à voir ce que ça donne en prod sur des cas limites, mais Mistral est en train de couvrir toute la pile et ça commence à devenir sérieux.

LLMsOpinion
1 source
Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production
90VentureBeat AI 

Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production

Cohere a lancé Transcribe, un modèle de reconnaissance vocale automatique (ASR) en open-weight, disponible depuis mars 2026 via API ou dans son Model Vault sous l'identifiant cohere-transcribe-03-2026. Avec 2 milliards de paramètres et une licence Apache-2.0 autorisant un usage commercial immédiat, le modèle affiche un taux d'erreur moyen sur les mots (WER) de 5,42 % — le meilleur score actuellement sur le classement ASR de Hugging Face. Il devance Whisper Large v3 d'OpenAI (7,44 %), ElevenLabs Scribe v2 (5,83 %) et Qwen3-ASR-1.7B (5,76 %). Transcribe prend en charge 14 langues : anglais, français, allemand, italien, espagnol, grec, néerlandais, polonais, portugais, chinois, japonais, coréen, vietnamien et arabe. Sur des benchmarks spécialisés, il obtient 8,15 % sur AMI (compréhension de réunions) et 5,87 % sur VoxPopuli (diversité d'accents). Ce lancement change concrètement la donne pour les entreprises qui construisent des workflows voix, des pipelines de transcription ou des systèmes de recherche audio. Jusqu'ici, elles devaient choisir entre des API fermées — précises mais problématiques pour la souveraineté des données — ou des modèles open source moins performants. Transcribe rompt ce compromis : il tourne sur l'infrastructure GPU locale d'une organisation, éliminant les risques de résidence des données et les pénalités de latence liées aux API externes. Pour les équipes qui construisent des pipelines RAG ou des agents IA intégrant de l'audio, c'est une voie directe vers la transcription de qualité production sans dépendance à un fournisseur cloud. Cohere se positionne depuis plusieurs années comme l'alternative "enterprise-first" aux grands modèles grand public, en misant sur le déploiement privé et la conformité réglementaire. Transcribe s'inscrit dans cette stratégie : là où Whisper avait été publié comme modèle de recherche sous licence MIT sans priorité commerciale immédiate, Cohere livre d'emblée un modèle prêt pour la production. La société précise avoir optimisé simultanément la précision (WER bas) et le débit (RTFx élevé), ce qui est techniquement difficile dans la catégorie des modèles de plus d'un milliard de paramètres. Les premiers utilisateurs ont salué notamment la capacité à rapatrier en interne des flux audio qui transitaient jusqu'alors par des API tierces — un enjeu croissant dans les secteurs soumis au RGPD ou aux réglementations sectorielles strictes comme la finance et la santé.

UELe modèle supporte le français et permet un déploiement on-premise éliminant les risques de résidence des données, un avantage direct pour les entreprises européennes soumises au RGPD dans les secteurs finance et santé.

OutilsOpinion
1 source
Arthur Mensch, patron de Mistral AI, héraut d’une intelligence artificielle ouverte et souveraine
91Le Monde Pixels 

Arthur Mensch, patron de Mistral AI, héraut d’une intelligence artificielle ouverte et souveraine

Arthur Mensch, 31 ans, cofondateur et PDG de Mistral AI, s'est imposé comme la figure centrale du débat européen sur l'intelligence artificielle souveraine. Fondée en 2023 à Paris avec Charles Aznavour et Timothée Lacroix, la startup a levé plus de 1,1 milliard d'euros en moins de deux ans, atteignant une valorisation de 6 milliards de dollars — un record pour l'IA européenne. Sa stratégie repose sur la publication de modèles en open source, comme Mistral 7B ou Mixtral, qui rivalisent avec les géants américains à fraction du coût. Pour Mensch, l'open source n'est pas un choix technique mais un acte politique : permettre à n'importe quelle entreprise, gouvernement ou chercheur de déployer une IA sans dépendre d'OpenAI, Google ou Anthropic. Cette position séduit des acteurs publics européens soucieux de leur souveraineté numérique, notamment en France et en Allemagne, où Mistral a signé des contrats avec des administrations. Mensch incarne une troisième voie entre le capitalisme fermé de Silicon Valley et l'IA d'État chinoise. Ancien chercheur chez DeepMind et Google Brain, il joue un rôle croissant dans les discussions réglementaires européennes, plaidant pour un AI Act qui n'étouffe pas l'innovation open source. Avec le lancement de Mistral Large et de la plateforme Le Chat, la startup ambitionne de devenir le fournisseur d'IA de référence pour les entreprises européennes.

UEMistral AI, startup française valorisée 6 milliards de dollars, fournit des modèles open source aux administrations françaises et allemandes, incarnant une alternative souveraine aux fournisseurs américains pour les entreprises et gouvernements européens.

BusinessOpinion
1 source
Comment créer un agent IA web guidé par la vision avec MolmoWeb-4B en utilisant une raisonnement multimodal et une prédiction d'action
92MarkTechPost 

Comment créer un agent IA web guidé par la vision avec MolmoWeb-4B en utilisant une raisonnement multimodal et une prédiction d'action

Section 1: Les faits essentiels Dans cet article intitulé "Comment construire un agent AI pour le Web guidé par la vision avec MolmoWeb-4B en utilisant la raisonnement multimodal et la prédiction d'actions", l'auteur décrit comment mettre en place MolmoWeb, un agent multimodal open source développé par Ai2. Cet agent peut comprendre et interagir directement avec les sites web à partir de captures d'écran, sans dépendre du HTML ou du parsing DOM. L'auteur configure l'ensemble de l'environnement dans Google Colab, charge le modèle MolmoWeb-4B avec une quantification efficace en 4 bits et établit précisément la séquence de prompts qui permet au modèle de raisonner sur une tâche web et de prédire les actions du navigateur. Le modèle est testé sur des pages vides, des captures d'écran synthétiques de sites web, et des scénarios de navigation à plusieurs étapes pour comprendre comment les agents web basés sur des captures d'écran pensent, agissent et maintiennent le contexte entre les étapes. Section 2: Pourquoi c'est important Cette approche est significative car elle permet aux IA d'interagir avec le contenu web de manière plus intuitive, similaire à la façon dont les humains le font lorsqu'ils naviguent sur Internet. Cela ouvre des possibilités pour créer des assistants intelligents capables de suivre des instructions complexes en utilisant des captures d'écran ou des descriptions visuelles comme entrée, améliorant ainsi l'accessibilité et la facilité d'utilisation pour les utilisateurs ayant des difficultés avec les interfaces traditionnelles. De plus, comprendre le processus de pensée interne d'un tel agent peut contribuer au développement de nouvelles méthodes de raisonnement artificiel et à une meilleure interprétabilité des systèmes d'IA. Section 3: Le contexte Le contexte de cet article est l'avancement rapide dans le domaine des grands modèles de langage (Large Language Models - LLMs) et l'intérêt croissant pour les agents AI capables d'interagir avec des environnements externes, y compris le Web. MolmoWeb représente une étape importante dans ce domaine en combinant la vision par ordinateur et le traitement du langage naturel pour permettre aux IA de naviguer sur Internet à partir de captures d'écran plutôt que de code source. En résumé, cet article décrit un tutoriel pour configurer et utiliser MolmoWeb-4B, un agent web multimodal open source qui peut comprendre et interagir avec des sites web à partir de captures d'écran. Cette approche offre des avantages significatifs en termes de facilité d'utilisation et d'accessibilité pour les utilisateurs et contribue au développement de modèles plus interprétables et capables dans le domaine du traitement du langage naturel et de la vision par ordinateur.

UECet agent IA pourrait améliorer l'accessibilité des utilisateurs européens confrontés à des interfaces web complexes grâce à la navigation basée sur des captures d'écran.

RechercheActu
1 source
☕️ OVHcloud va racheter Dragon LLM, concepteur de modèles spécialisés d’IA générative
93Next INpact 

☕️ OVHcloud va racheter Dragon LLM, concepteur de modèles spécialisés d’IA générative

OVHcloud a annoncé mercredi 25 mars un accord engageant pour racheter Dragon LLM, startup française spécialisée dans les grands modèles de langage. Fondée en 2011 sous le nom Lingua Custodia dans le domaine de la traduction automatique, la société a pivoté vers les LLM en 2024 après avoir remporté le Large AI Grand Challenge de la Commission européenne — ce qui lui a donné accès à plusieurs millions d'heures de calcul sur les supercalculateurs Leonardo (Italie) et Jupiter (Allemagne), pour une valeur cumulée d'environ 10 millions d'euros. En novembre 2025, Dragon LLM a publié sur Hugging Face deux modèles open source spécialisés en finance (Open Finance LLM), basés sur Llama 3.1 et Qwen 3, développés avec l'Agefi et soutenus par Bpifrance. L'entreprise propose également des versions commerciales allant de 12 à 70 milliards de paramètres. Le montant de l'acquisition n'a pas été divulgué. Ce rachat marque un tournant stratégique pour OVHcloud, qui ne veut plus se cantonner à l'hébergement d'infrastructures IA. En intégrant les compétences de fine-tuning de Dragon LLM, le groupe roubaisien entend proposer de nouveaux services d'IA générative pour les données sensibles, déployables aussi bien dans le cloud qu'en on-premise. Il annonce parallèlement la création d'un « lab AI », une division dédiée à la conception et la commercialisation de services autour de l'entraînement et de la spécialisation de LLM. OVHcloud remonte ainsi la chaîne de valeur de l'IA, en ciblant notamment les secteurs réglementés comme la finance, où la souveraineté des données est critique. Cette acquisition s'inscrit dans la vision portée par Octave Klaba, redevenu CEO d'OVHcloud, qui considère les LLM comme une surcouche omniprésente au-dessus des applications métier. Le groupe affiche clairement une ambition « systémique » dans l'IA, avec une stratégie orientée inférence et des annonces en accélération.

UEOVHcloud, acteur français majeur du cloud, acquiert Dragon LLM, startup française lauréate du Large AI Grand Challenge européen, renforçant la souveraineté numérique de la France dans l'IA générative pour les secteurs réglementés comme la finance.

BusinessActu
1 source
NVIDIA fait don d'un pilote d'allocation dynamique de ressources GPU à la communauté Kubernetes pour faire avancer l'IA open source
94NVIDIA AI Blog 

NVIDIA fait don d'un pilote d'allocation dynamique de ressources GPU à la communauté Kubernetes pour faire avancer l'IA open source

NVIDIA a annoncé lors du KubeCon Europe à Amsterdam le don de son pilote Dynamic Resource Allocation (DRA) pour GPU à la Cloud Native Computing Foundation (CNCF), transférant ainsi la gouvernance du logiciel à la communauté Kubernetes. Ce pilote permet un partage intelligent des ressources GPU, supporte les technologies Multi-Instance GPU et Multi-Node NVLink, et facilite l'entraînement de modèles massifs sur les systèmes Grace Blackwell. NVIDIA introduit également le support GPU pour Kata Containers en collaboration avec la communauté CNCF Confidential Containers, renforçant l'isolation et la sécurité des charges de travail IA.

UEAnnoncé à KubeCon Europe à Amsterdam, ce don à la CNCF bénéficie directement aux équipes cloud européennes qui déploient des charges de travail IA sur Kubernetes avec des GPU.

OutilsActu
1 source
Mistral Small 4, GPT‑5.4 mini et nano : deux approches pour les « petits » modèles
95Next INpact 

Mistral Small 4, GPT‑5.4 mini et nano : deux approches pour les « petits » modèles

Mistral a lancé Small 4, son premier modèle unifiant raisonnement (Magistral), multimodal (Pixtral) et code (Devstral) en un seul modèle open source sous licence Apache 2.0. Il repose sur une architecture Mixture of Experts (MoE) avec 128 experts dont seulement 4 sont activés par token, pour 119 milliards de paramètres totaux mais seulement 6 milliards actifs à l'inférence. De son côté, OpenAI mise sur la distillation pour ses versions mini et nano de GPT-5.4 — deux stratégies différentes pour des modèles plus rapides et moins coûteux.

UEMistral, entreprise française phare de l'IA, renforce la souveraineté numérique européenne avec un modèle open source Apache 2.0 directement exploitable par les développeurs et entreprises en France et en UE.

LLMsOpinion
1 source
96Le Big Data 

Étonnament, Nvidia prévoit de lancer son propre agent IA open source

Nvidia prépare le lancement de NemoClaw, une plateforme open source d'agents IA destinée aux entreprises, qui devrait être dévoilée lors de sa conférence annuelle des développeurs à San José. La plateforme permettra aux éditeurs de logiciels de créer et déployer des agents autonomes capables d'automatiser des tâches professionnelles, et fonctionnerait même sur des infrastructures sans puces Nvidia. Des discussions auraient déjà été engagées avec Salesforce, Cisco, Google, Adobe et CrowdStrike pour construire un écosystème dès le lancement.

OutilsActu
1 source
97Wired AI 

Nvidia prévoit de lancer une plateforme d'agents IA open source

Nvidia prépare une nouvelle plateforme logicielle open source dédiée aux agents IA, similaire à OpenClaw, en amont de sa conférence annuelle des développeurs.

BusinessActu
1 source
98MarkTechPost 

L'équipe d'Andrew Ng présente Context Hub : un outil open source qui fournit à votre agent de codage la documentation d'API à jour dont il a besoin

Andrew Ng et son équipe chez DeepLearning.AI ont lancé Context Hub, un outil open source conçu pour fournir aux agents de codage (comme Claude Code) une documentation d'API toujours à jour, via un CLI appelé chub. L'outil résout le problème de l'"Agent Drift" — quand un LLM s'appuie sur des paramètres dépréciés ou des endpoints obsolètes issus de ses données d'entraînement figées. Une fonctionnalité clé, chub annotate, permet aux agents de sauvegarder des notes techniques (ex. contournements de bugs) dans un registre local, rendant la connaissance persistante entre les sessions.

OutilsOutil
1 source
99HuggingFace Blog 

Nous avons fait appel à Claude pour affiner un LLM open source

Titre: Nous avons fait appel à Claude pour affiner un grand langage modélisé à source ouverte Résumé: Claude, un système avancé de traitement du langage développé par Anthropic, a été utilisé pour améliorer un modèle de langage open source. Ce processus d'affinage a permis d'augmenter les performances du modèle, notamment dans la compréhension et la génération de texte.

UEClaude d'Anthropic utilisé pour affiner un LLM open source, améliorant potentiellement les capacités des entreprises françaises et européennes en traitement du langage naturel, tout en respectant les exigences du RGPD et de l'AI Act.

LLMsOutil
1 source
100HuggingFace Blog 

LeRobot 0.4.0 : Accélérateur d'apprentissage des robots open source

LeRobot v0.4.0, une nouvelle version du logiciel open-source pour l'apprentissage des robots, vise à accélérer et à optimiser le développement de systèmes d'IA robotique grâce à des améliorations significatives, notamment une meilleure intégration avec les frameworks OSS existants et une augmentation des capacités d'apprentissage automatique.

UELa mise à jour de LeRobot v0.4.0, développée par la startup française Hugging Face, renforce la position européenne dans la robotique open-source en offrant aux chercheurs et entreprises du continent un outil compétitif pour développer des systèmes d'IA robotique.

RobotiqueOutil
1 source