Aller au contenu principal

Dossier Open weight & Open source — page 3

285 articles · page 3 sur 6

Le mouvement open-weight : DeepSeek, Mistral, Gemma, Qwen et Llama. La fracture stratégique entre laboratoires fermés et écosystème ouvert.

kvcached : mémoire KV Cache élastique, service LLM en rafales et partage GPU multi-modèles
101MarkTechPost InfrastructureTuto

kvcached : mémoire KV Cache élastique, service LLM en rafales et partage GPU multi-modèles

La gestion de la mémoire GPU représente l'un des défis les plus concrets du déploiement de modèles de langage en production, et kvcached apporte une réponse directe à ce problème. Ce projet open source, conçu comme une surcouche à vLLM, remplace l'allocateur statique de cache KV par une solution élastique et dynamique. Un tutoriel récent détaille son implémentation pas à pas, en déployant deux modèles Qwen2.5 (versions 0,5 milliard et 1,5 milliard de paramètres d'Alibaba) via une API compatible OpenAI sur les ports 8001 et 8002, avec vLLM 0.10.2 et une extension CUDA compilée à l'installation. L'activation se fait via quelques variables d'environnement, ENABLEKVCACHED et KVCACHEDAUTOPATCH, sans modifier le code source du serveur d'inférence. L'enjeu est significatif pour quiconque gère des infrastructures d'IA avec des charges de travail irrégulières. Avec l'allocation statique classique, la mémoire VRAM est réservée au démarrage du serveur et reste bloquée, que le modèle soit sollicité ou non. kvcached permet au contraire à la mémoire de se redistribuer en temps réel selon l'activité effective de chaque modèle. Dans un scénario multi-modèles sur un seul GPU, cela signifie concrètement qu'un modèle inactif libère de la mémoire au profit d'un autre qui subit un pic de requêtes, ce que les ingénieurs appellent une charge "bursty". Les expériences du tutoriel mesurent et visualisent directement cette différence en termes d'utilisation VRAM et de latence, avec une limite de contexte fixée à 2 048 tokens. Ce type d'outil s'inscrit dans une tendance de fond : optimiser l'utilisation des GPU pour réduire les coûts d'inférence, qui constituent désormais la majorité des dépenses opérationnelles des applications LLM à grande échelle. vLLM, maintenu par une communauté active et adopté par des dizaines d'entreprises d'infrastructure IA, reste la référence pour le serving haute performance, mais son modèle d'allocation mémoire statique montre ses limites face aux charges variables. Des projets comme kvcached, qui s'y greffent sans réécriture profonde, offrent une voie pragmatique vers une meilleure densité de déploiement. La prochaine étape logique, suggérée par la structure même du tutoriel, est l'extension à des architectures de serveurs partagés entre plusieurs équipes ou clients, ce que l'on appelle le multi-tenant serving, qui deviendra incontournable à mesure que les coûts GPU restent élevés.

UELes équipes techniques françaises déployant des LLMs en production via vLLM pourraient réduire leurs coûts GPU grâce à cette optimisation open source, sans impact réglementaire ou stratégique propre à la France/UE.

1 source
VistaBot : manipulation robotique robuste aux points de vue grâce à la synthèse de vues spatio-temporelles
102arXiv cs.RO 

VistaBot : manipulation robotique robuste aux points de vue grâce à la synthèse de vues spatio-temporelles

Des chercheurs ont publié VistaBot, un framework de manipulation robotique ciblant un angle mort des politiques end-to-end actuelles : leur fragilité face aux changements de point de vue de caméra entre entraînement et déploiement. La préprint arXiv 2604.21914, déposée en avril 2026, décrit une architecture en trois modules : estimation de géométrie 4D, synthèse de vue par diffusion vidéo, et planification d'actions en espace latent, sans recalibration de caméra requise au moment du déploiement. Intégré dans deux politiques de référence du domaine, ACT (Action Chunking Transformer) et π₀ (la politique diffusion-based de Physical Intelligence), VistaBot améliore la métrique VGS (View Generalization Score, introduite par les auteurs) de 2,79x par rapport à ACT et de 2,63x par rapport à π₀, en simulation et en environnement réel. Le code et les modèles seront publiés en open source. La dépendance à un point de vue fixe constitue un frein structurel au déploiement des bras manipulateurs en conditions industrielles : une caméra repositionnée ou partiellement obstruée peut invalider un modèle entier sans mécanisme de compensation. VistaBot répond en synthétisant dynamiquement des vues alternatives via un modèle de diffusion vidéo, puis en planifiant les actions dans l'espace latent de ces vues synthétisées, sans recollecte de données depuis le nouvel angle. Pour un intégrateur ou un COO industriel, cela réduit directement le coût de reconfiguration sur ligne. L'introduction du VGS comble également un vide méthodologique : le domaine ne disposait pas de benchmark standardisé pour comparer la robustesse cross-view entre politiques, rendant les comparaisons entre travaux difficiles. Le problème de robustesse aux points de vue est documenté en imitation learning depuis plusieurs années, mais les solutions disponibles exigeaient soit une augmentation intensive des données, soit une calibration caméra explicite à chaque reconfiguration. Physical Intelligence, fondée en 2023, a développé π₀ comme politique généraliste de manipulation. D'autres acteurs comme Google DeepMind (RT-2 et ses successeurs), Figure AI (Figure 03) ou 1X Technologies ciblent des architectures VLA à plus large spectre sans traiter spécifiquement cet axe de robustesse aux vues. VistaBot reste une contribution académique préliminaire : la préprint n'est pas encore revue par les pairs, les tâches réelles évaluées ne sont pas décrites en détail, et les gains annoncés devront être confirmés par des reproductions indépendantes une fois le code disponible.

RobotiquePaper
1 source
Tutoriel OpenMythos : Transformers à profondeur récurrente, calcul adaptatif et routage par mélange d'experts
103MarkTechPost 

Tutoriel OpenMythos : Transformers à profondeur récurrente, calcul adaptatif et routage par mélange d'experts

Une bibliothèque Python open source baptisée OpenMythos propose une reconstruction théorique de l'architecture dite "Claude Mythos", une approche de raisonnement approfondi qui mise sur l'itération computationnelle plutôt que sur l'augmentation du nombre de paramètres. Publiée sur PyPI sous le nom open-mythos, elle permet de construire des modèles de langage dotés d'un mécanisme de profondeur récurrente, où la même couche de traitement est traversée plusieurs fois en boucle. Le tutoriel publié explore deux variantes du mécanisme d'attention : GQA (Grouped Query Attention) et MLA (Multi-head Latent Attention), compare leur empreinte mémoire respective, entraîne un modèle sur une tâche de parité binaire, et inspecte l'utilisation des experts dans des couches de type Mixture-of-Experts (MoE). Les expériences montrent que MLA réduit la taille du cache KV d'un facteur d'environ 2 par rapport à GQA pour une séquence de 64 tokens sur 4 boucles. L'enjeu central de l'architecture est ce que les auteurs appellent la "depth extrapolation" : la capacité à augmenter le nombre de boucles de raisonnement au moment de l'inférence, sans réentraîner le modèle. Un modèle entraîné avec 4 itérations peut ainsi être utilisé avec 8 ou 16 boucles pour améliorer ses performances sur des tâches complexes, sans modifier aucun paramètre. Ce paradigme s'inscrit dans la tendance plus large du "test-time compute", qui consiste à allouer davantage de calcul au moment de la génération plutôt qu'à l'entraînement. Le tutoriel valide également la stabilité numérique du modèle via les propriétés spectrales de la matrice de mise à jour récurrente, un point critique pour éviter l'explosion ou la disparition des gradients dans les boucles profondes. Le module ACT (Adaptive Computation Time) permet en outre au modèle de décider dynamiquement combien d'itérations sont nécessaires pour chaque token. Cette publication s'inscrit dans un contexte de forte effervescence autour des architectures alternatives aux transformeurs classiques. La référence à "Claude Mythos" suggère une inspiration directe des travaux d'Anthropic, même si le projet reste une reconstruction théorique non officielle. Le champ des architectures récurrentes profondes connaît un regain d'intérêt depuis 2024, porté par des travaux comme les Recurrent Depth Transformers de Google DeepMind et les architectures hybrides SSM/attention. OpenMythos se positionne comme un outil pédagogique et expérimental pour explorer ces idées, à destination de chercheurs et d'ingénieurs qui cherchent à comprendre comment atteindre des capacités de raisonnement plus profondes sans multiplier les paramètres, une piste particulièrement pertinente dans un contexte où l'entraînement de modèles frontières est devenu prohibitif pour la majorité des acteurs.

RecherchePaper
1 source
PokeVLA : un modèle vision-langage-action compact enrichi d'une connaissance globale du monde
104arXiv cs.RO 

PokeVLA : un modèle vision-langage-action compact enrichi d'une connaissance globale du monde

Des chercheurs ont publié PokeVLA, un nouveau modèle de fondation léger conçu pour la manipulation robotique, présenté dans un article déposé sur arXiv fin avril 2026. Le système repose sur une architecture Vision-Language-Action (VLA) qui intègre la compréhension visuelle et linguistique directement dans l'apprentissage des actions physiques d'un robot. Pour y parvenir, l'équipe a développé une approche en deux étapes : d'abord, un modèle vision-langage compact baptisé PokeVLM est pré-entraîné sur un jeu de données soigneusement constitué de 2,4 millions d'échantillons couvrant l'ancrage spatial, les affordances et le raisonnement incarné ; ensuite, des représentations spécifiques à la manipulation sont injectées dans l'espace d'action via un apprentissage sémantique multi-vues, un alignement géométrique et un module d'action inédit. Les expériences montrent des performances de pointe sur le benchmark LIBERO-Plus ainsi qu'en déploiement réel, surpassant les modèles comparables en taux de réussite et en robustesse face à diverses perturbations. Le code, les poids du modèle et les scripts de préparation des données seront rendus publics. Ce travail s'attaque à deux limites majeures des modèles VLA existants : leur inefficacité computationnelle et leur faible capacité à raisonner à haut niveau sur l'espace et les objets. En proposant un modèle à la fois compact et performant, PokeVLA ouvre la voie à des robots capables de comprendre leur environnement de manière plus fine sans nécessiter des ressources matérielles considérables. Pour l'industrie de la robotique, cela signifie que des systèmes plus accessibles pourraient atteindre des niveaux de fiabilité jusqu'ici réservés aux modèles volumineux, accélérant potentiellement l'adoption dans des contextes réels comme la logistique, la fabrication ou les soins à domicile. Les modèles VLA connaissent une montée en puissance rapide depuis que des travaux comme RT-2 de Google ou OpenVLA ont démontré l'intérêt de combiner grands modèles de langage et contrôle moteur. La tendance générale pousse vers des modèles toujours plus grands, mais PokeVLA prend le contre-pied en cherchant la compacité sans sacrifier les capacités. La mise en open source annoncée est stratégique : elle permettra à la communauté académique de reproduire les résultats et d'itérer rapidement, ce qui pourrait accélérer l'émergence de robots généralistes abordables dans les prochaines années.

RobotiqueActu
1 source
Fermeture de boucle efficace en SLAM LiDAR par cartes de densité de nuages de points
105arXiv cs.RO 

Fermeture de boucle efficace en SLAM LiDAR par cartes de densité de nuages de points

Des chercheurs ont publié sur arXiv une nouvelle méthode de détection de fermeture de boucle pour les robots mobiles autonomes équipés de capteurs LiDAR, sous le nom de code MapClosures. Le système résout un problème fondamental de la cartographie robotique : lorsqu'un robot repasse par un endroit déjà visité, il doit reconnaître ce lieu et corriger l'accumulation d'erreurs de positionnement, un phénomène appelé dérive globale. La pipeline présentée génère des cartes locales à partir des nuages de points LiDAR, les aligne avec un module dédié à la gestion du terrain, puis produit des projections à vue aérienne en préservant la densité des points. Des descripteurs de caractéristiques ORB sont extraits de ces projections et stockés dans un arbre de recherche binaire pour accélérer les requêtes. Un mécanisme d'élagage par auto-similarité permet d'éviter les faux positifs dans les environnements répétitifs, comme des couloirs ou des rangées d'arbres. Le code source est disponible en open source sur GitHub, dans le dépôt PRBonn/MapClosures. L'impact de cette approche est particulièrement significatif pour les applications de robotique en extérieur, livraison autonome, inspection industrielle, véhicules tout-terrain, où la précision cartographique sur de longues distances est critique. Contrairement à de nombreuses solutions existantes qui dépendent d'un type précis de capteur ou d'un profil de mouvement spécifique, MapClosures fonctionne avec des LiDAR aux résolutions, champs de vision et patterns de scan très différents. Cela réduit considérablement les coûts d'intégration pour les équipes qui changent de matériel ou déploient plusieurs types de robots sur un même système. Le SLAM (Simultaneous Localization and Mapping) est un défi ouvert depuis plusieurs décennies en robotique, et la fermeture de boucle en est l'un des maillons les plus fragiles, surtout en environnements non structurés. Les travaux proviennent du laboratoire PRBonn, associé à l'Université de Bonn, acteur reconnu dans la recherche en perception robotique. En rendant la méthode agnostique au capteur et en publiant le code librement, les auteurs visent une adoption large dans la communauté académique et industrielle. Les prochaines étapes pourraient inclure l'intégration avec des systèmes de fusion multi-capteurs et des tests à plus grande échelle dans des environnements dynamiques urbains.

UEIssu du laboratoire PRBonn de l'Université de Bonn (Allemagne), ce travail open source renforce la compétitivité européenne en robotique mobile et peut bénéficier directement aux équipes françaises et européennes développant des robots autonomes ou des véhicules LiDAR.

RechercheActu
1 source
Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique
106MarkTechPost 

Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique

Un tutoriel publié récemment détaille comment concevoir un système multi-agents de niveau production à l'aide du framework CAMEL, une bibliothèque Python open source dédiée à l'orchestration d'agents LLM. Le pipeline décrit met en scène cinq agents spécialisés aux rôles clairement délimités : un planificateur, un chercheur, un rédacteur, un critique et un rééditeur. L'ensemble repose sur GPT-4o d'OpenAI (via l'API), la validation de schémas avec Pydantic 2.7, et l'affichage structuré via Rich 13.7. Concrètement, le système génère des synthèses techniques documentées de façon autonome, en combinant recherche web en temps réel, échantillonnage par auto-cohérence et raffinement itératif piloté par critique interne. Ce type d'architecture multi-agents représente une évolution significative par rapport aux approches LLM classiques en pipeline simple. En distribuant les responsabilités entre agents distincts, chacun doté de contraintes de sortie précises (schémas JSON validés par Pydantic), le système réduit les hallucinations et améliore la cohérence des résultats. L'ajout d'un agent critique qui évalue la production de l'agent rédacteur, puis déclenche un agent rééditeur si le score est insuffisant, introduit une boucle de contrôle qualité autonome : le système s'auto-corrige sans intervention humaine. Pour les équipes produit ou data qui cherchent à industrialiser des workflows de génération de contenu ou d'analyse, cette approche offre un cadre reproductible, modulaire et extensible. CAMEL (Communicative Agents for "Mind" Exploration of Large Language Model Society) est un framework open source initié en 2023, qui a gagné en maturité avec des versions stables permettant l'intégration native d'outils web, de modèles multi-plateformes et de mécanismes de validation structurée. Le tutoriel s'inscrit dans un mouvement plus large d'industrialisation des agents LLM, où des acteurs comme LangChain, AutoGen de Microsoft ou CrewAI cherchent à standardiser la façon dont on compose des agents spécialisés. L'enjeu central est de passer du prototype expérimental au système fiable en production, ce qui exige précisément les mécanismes décrits ici : contrôle de schéma, gestion des erreurs, logique de retry et traçabilité des sorties. Les prochaines évolutions de ces frameworks devraient intégrer davantage de mémoire persistante entre agents et des mécanismes de délégation dynamique des tâches, rapprochant ces systèmes des premières formes d'automatisation cognitive véritablement autonome.

OutilsTuto
1 source
Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore
107AWS ML Blog 

Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore

Amazon a annoncé de nouvelles fonctionnalités pour Bedrock AgentCore, sa plateforme de développement d'agents IA, qui promettent de réduire drastiquement le temps nécessaire pour passer d'une idée à un agent fonctionnel. La pièce maîtresse de cette mise à jour est le "managed agent harness", une couche d'infrastructure gérée qui permet de déclarer et lancer un agent en trois appels d'API seulement, sans écrire de code d'orchestration. Le développeur n'a qu'à définir quel modèle utiliser, quels outils appeler et quelles instructions suivre : AgentCore assemble automatiquement le calcul, la mémoire, les identités et la sécurité. La plateforme est compatible avec les frameworks déjà en usage dans l'industrie : LangGraph, LlamaIndex, CrewAI et Strands Agents, le framework open source d'AWS qui propulse le harness. AgentCore gère également la persistance de l'état de session sur un système de fichiers durable, ce qui permet à un agent de suspendre une tâche en cours et de la reprendre exactement là où il s'était arrêté. Jusqu'ici, construire l'infrastructure sous-jacente d'un agent, compute, sandbox d'exécution de code, connexions sécurisées aux outils, stockage persistant, gestion des erreurs, représentait plusieurs jours de travail avant de pouvoir tester la moindre logique métier. Avec AgentCore, tester une variante d'agent, changer de modèle ou ajouter un outil devient une modification de configuration et non une réécriture de code. Rodrigo Moreira, VP Engineering chez VTEX, l'un des premiers utilisateurs, confirme que ce qui prenait auparavant des jours de mise en place peut désormais être validé en quelques minutes. Cette accélération du cycle de prototypage est particulièrement significative pour les équipes produit qui veulent itérer rapidement sur la logique agent sans s'embourber dans la plomberie backend. Les patterns "human-in-the-loop", souvent coûteux à implémenter, deviennent pratiques grâce à la persistance native de session, sans nécessiter de refonte architecturale ultérieure. La sortie de ces fonctionnalités s'inscrit dans une concurrence féroce entre les grands fournisseurs cloud pour capter les équipes qui industrialisent l'IA agentique. AWS fait le pari que les développeurs adoptent plus facilement un service géré s'il supprime la friction initiale tout en restant extensible : lorsque les besoins d'orchestration personnalisée ou de coordination multi-agents se précisent, il suffit de basculer d'une configuration déclarative vers du code, sur la même plateforme, avec la même pipeline de déploiement et le même isolement microVM. La prochaine étape annoncée, déployer et opérer les agents depuis le même terminal, vise à unifier le cycle complet de développement, de la première idée jusqu'à la production, dans un seul environnement sans rupture d'outil.

UELes équipes de développement françaises et européennes peuvent réduire leur temps de prototypage d'agents IA, accélérant l'industrialisation de l'IA agentique pour les entreprises du continent.

OutilsOutil
1 source
OpenClaw peine à confirmer après son succès fulgurant
108The Information AI 

OpenClaw peine à confirmer après son succès fulgurant

OpenClaw, un logiciel d'agents IA devenu en quelques mois l'un des projets open source à la croissance la plus rapide de l'histoire de la tech, se retrouve à un carrefour délicat. Porté par une communauté de volontaires, ce projet a explosé du jour au lendemain sans que ses mainteneurs n'aient eu le temps d'anticiper une telle adoption. Aujourd'hui, ses responsables doivent décider s'ils transforment OpenClaw en outil fiable pour les entreprises, ou s'ils préservent l'ADN expérimental qui a fait son succès. La question n'est pas anodine : les entreprises qui intègrent des agents IA dans leurs processus métier ont besoin de stabilité, de documentation, de support et de garanties de pérennité que des équipes bénévoles peinent structurellement à offrir. Si OpenClaw ne franchit pas ce cap, il risque de rester un outil de laboratoire réservé aux développeurs avertis, laissant le terrain aux solutions commerciales concurrentes capables d'absorber les exigences des grands comptes. Le phénomène OpenClaw illustre une tension bien connue dans l'open source : les projets qui percent brutalement se retrouvent écrasés par leur propre succès, sans les ressources pour absorber la charge. Dans un secteur des agents IA en pleine ébullition, où des dizaines de frameworks se disputent l'adhésion des développeurs, la fenêtre pour s'imposer comme standard de référence est courte. Les mainteneurs devront probablement choisir entre chercher des financements externes, créer une fondation ou une entité commerciale, ou risquer que la communauté se fragmente autour de forks mieux gouvernés.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
109Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
Guidance stable par le langage pour les modèles vision-langage-action (VLA)
110arXiv cs.RO 

Guidance stable par le langage pour les modèles vision-langage-action (VLA)

Des chercheurs ont publié sur arXiv (réf. 2601.04052v2) une méthode baptisée Residual Semantic Steering (RSS), conçue pour corriger un défaut structurel des modèles Vision-Language-Action (VLA) utilisés en robotique manipulation : leur fragilité face aux variations de formulation des instructions textuelles. Le problème identifié, nommé "effondrement de modalité" (modality collapse), survient lorsque les signaux visuels, très denses, écrasent les signaux linguistiques, plus rares, forçant le modèle à mémoriser des tournures de phrases spécifiques plutôt qu'à comprendre l'intention sous-jacente. RSS propose deux mécanismes complémentaires : la Monte Carlo Syntactic Integration, qui génère un ensemble distribué de reformulations d'une même instruction via un LLM afin d'approximer le vrai postérieur sémantique, et le Residual Affordance Steering, un décodage à double flux qui isole explicitement la contribution causale du langage en soustrayant l'a priori visuel des affordances physiques. Les résultats publiés indiquent des performances state-of-the-art en robustesse sur plusieurs benchmarks de manipulation, y compris sous perturbations linguistiques adversariales. Le code est disponible en open source. Ce travail pointe un angle mort concret du pipeline VLA : un robot entraîné avec π0 (Physical Intelligence), OpenVLA ou GR00T N2 (NVIDIA) peut échouer à exécuter une tâche simplement parce que l'opérateur reformule l'ordre différemment, ce qui est rédhibitoire pour tout déploiement industriel réel. RSS apporte une réponse architecturale sans nécessiter de réentraînement complet du modèle de base, ce qui le rend potentiellement compatible avec les VLA existants. La démonstration sur benchmarks adversariaux est un signal positif, même si les benchmarks de manipulation académiques restent éloignés des conditions d'atelier réelles : cycles courts, éclairage variable, instructions opérateur non normalisées. Les VLA ont émergé comme paradigme dominant depuis les travaux de RT-2 (Google DeepMind, 2023), suivis par OpenVLA, π0 de Physical Intelligence et GR00T N2 de NVIDIA, tous confrontés au même sim-to-real gap linguistique. RSS s'inscrit dans une vague de travaux tentant de rendre ces modèles plus robustes sans sacrifier leur généralité. L'approche concurrente la plus proche est le data augmentation sémantique (paraphrase augmentation), moins élégante théoriquement mais déjà intégrée dans certains pipelines de fine-tuning. Les prochaines étapes logiques seraient une validation sur robot physique en environnement non contrôlé et une intégration dans un framework VLA open source comme OpenVLA, ce que les auteurs n'ont pas encore annoncé.

AutreOpinion
1 source
CLAW : génération de mouvements corps entier composables et annotés en langage naturel
111arXiv cs.RO 

CLAW : génération de mouvements corps entier composables et annotés en langage naturel

Une équipe de chercheurs a publié CLAW (Composable Language-Annotated Whole-body Motion Generation), un pipeline open source conçu pour générer à grande échelle des données de mouvement annoté en langage naturel pour robots humanoïdes, appliqué ici au Unitree G1. Le système compose des primitives de mouvement paramétrées par six variables, type de déplacement, cap, vitesse, hauteur du bassin (pelvis height) et durée, et les exécute dans le simulateur MuJoCo pour produire des trajectoires physiquement cohérentes. Deux interfaces navigateur sont proposées : un mode clavier en temps réel pour l'exploration, et un éditeur de séquences en timeline pour la collecte de données en batch. En parallèle, un moteur de génération d'annotations basé sur des templates produit des descriptions en langage naturel à deux niveaux de granularité : segment individuel et trajectoire complète. Le code est disponible publiquement sur GitHub sous la référence arXiv:2604.11251. L'enjeu central est le goulot d'étranglement des données pour entraîner des contrôleurs whole-body conditionnés au langage (VLA, Vision-Language-Action). La capture de mouvement réelle est coûteuse, peu scalable et limitée en diversité ; les modèles génératifs text-to-motion existants produisent des sorties purement cinématiques, sans garantie de faisabilité physique, un écueil critique pour le déploiement réel. CLAW apporte une réponse intermédiaire : la simulation MuJoCo ancre les trajectoires dans la physique, tandis que la composition modulaire de primitives permet une diversité combinatoire élevée. C'est une approche sim-to-real pragmatique qui vise à réduire le fossé entre données d'entraînement et comportement robot en conditions réelles, sans le coût d'un studio de mocap. Le Unitree G1, robot humanoïde chinois positionné sur le segment accessible (prix catalogue autour de 16 000 USD), est une plateforme de recherche de plus en plus utilisée dans la communauté académique, notamment face aux plateformes fermées comme Figure 02 ou Apptronik Apollo. CLAW s'inscrit dans une dynamique plus large de démocratisation des pipelines de données pour la robotique humanoïde, aux côtés de travaux comme le dataset HumanoidBench ou les approches de Physical Animation de Berkeley. La mise à disposition publique du système est son principal atout différenciant : elle permet aux laboratoires sans ressources de mocap de constituer des jeux de données whole-body annotés pour leurs propres expériences de contrôle en langage. Les prochaines étapes attendues, non annoncées dans ce papier, concernent le transfert réel sur G1 et la validation des politiques entraînées sur ces données synthétiques.

UELes laboratoires européens de recherche en robotique humanoïde peuvent exploiter ce pipeline open source pour constituer des jeux de données whole-body annotés sans infrastructure de mocap coûteuse.

AutreOpinion
1 source
Les deux visages d'OpenClaw
112Latent Space 

Les deux visages d'OpenClaw

Peter Steinberger, figure centrale du projet OpenClaw, a donné deux conférences simultanées le 16 avril 2026 : une intervention grand public lors du TED, axée sur les succès et l'inspiration, et une présentation plus technique à l'AIE, où il a exposé sans détour les défis d'ingénierie colossaux liés à la maintenance du projet open source à la croissance la plus rapide de l'histoire. Les chiffres sont vertigineux : OpenClaw enregistre 60 fois plus d'incidents de sécurité que le projet curl, et au moins 20 % des contributions de code soumises par la communauté sont identifiées comme malveillantes. En parallèle, Anthropic a lancé Claude Design, un outil de prototypage en préversion de recherche propulsé par Claude Opus 4.7, permettant de générer des prototypes, diapositives et documents à partir d'instructions en langage naturel, avec export vers Canva, PowerPoint, PDF et HTML, ainsi qu'un transfert direct vers Claude Code. Opus 4.7 a également été évalué par plusieurs benchmarks indépendants : il occupe la première place du Code Arena (+37 points sur Opus 4.6), la première place du Text Arena, et l'index Intelligence d'ArtificialAnalytics le place à 57,3 points, devant Gemini 3.1 Pro à 57,2 et GPT-5.4 à 56,8. L'impact de ces annonces est immédiat et multiple. Claude Design positionne directement Anthropic comme concurrent de Figma, Lovable, Bolt et v0 sur le marché des outils de design et de prototypage, et les marchés ont réagi : l'action Figma a chuté notablement dans les heures suivant l'annonce. Sur le plan de l'efficacité, Opus 4.7 produit environ 35 % moins de tokens qu'Opus 4.6 à performance supérieure, et certains utilisateurs rapportent jusqu'à dix fois moins de tokens consommés pour des problèmes d'apprentissage automatique complexes. ArtificialAnalytics place le modèle sur la frontière de Pareto prix/performance, aussi bien pour le texte que pour le code. Les 24 premières heures ont toutefois été agitées : des régressions et des échecs de contexte ont été signalés, des problèmes de stabilité ont été relevés dans Claude Design lui-même, et des incidents liés à la sécurité des comptes ont émergé, Anthropic ayant réagi rapidement pour corriger les comportements défaillants dès le lendemain. Ces événements s'inscrivent dans une convergence plus large de l'industrie vers les agents autonomes et l'utilisation des ordinateurs par les IA. OpenAI a également mis à jour Codex avec des capacités de computer use qui permettent de piloter Slack, des flux web et des applications bureau arbitraires, suscitant des réactions enthousiastes de praticiens qui y voient la première plateforme réellement utilisable en entreprise pour des logiciels legacy. Opus 4.7 abandonne le mode de réflexion étendue au profit d'un raisonnement adaptatif, et introduit la notion de budgets de tâches. Quant à OpenClaw, sa dualité, projet inspirant côté grand public, chantier sécuritaire périlleux côté ingénieurs, illustre la tension structurelle que traverse désormais tout grand projet open source alimenté par une communauté mondiale.

UEClaude Opus 4.7 et Claude Design sont immédiatement accessibles aux développeurs et entreprises européens, avec un impact concret sur les workflows de prototypage et de développement logiciel en France et en Europe.

💬 Opus 4.7 premier sur Code Arena ET Text Arena, 35% de tokens en moins pour des perfs au-dessus, c'est pas un détail. Claude Design qui fait chuter l'action Figma le jour même, ça dit tout sur la stratégie d'Anthropic : plus seulement le meilleur modèle, mais l'écosystème complet. Reste que 24h de régressions et d'incidents au lancement, faut y penser avant de migrer en prod.

LLMsActu
1 source
Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo
113Le Big Data 

Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo

Physical Intelligence, startup basée à San Francisco, a présenté π0.7, un modèle d'IA robotique capable d'exécuter des tâches pour lesquelles il n'a reçu presque aucun entraînement spécifique. La démonstration phare : un robot utilisant une friteuse à air chaud pour cuire une patate douce, alors que ses données d'apprentissage ne contenaient que deux séquences vaguement pertinentes, un robot fermant une friteuse, et un autre manipulant une bouteille en plastique issue d'un dataset open source. Sans assistance verbale, le taux de réussite du robot était d'environ 5 %. Après une demi-heure d'instructions orales en temps réel, ce taux a bondi à 95 %, sans réentraînement ni collecte massive de nouvelles données. Sergey Levine, cofondateur de Physical Intelligence, décrit cette capacité comme une recomposition inédite de connaissances acquises dans des contextes disparates, notamment issues du web. Ce qui distingue π0.7 de la majorité des systèmes robotiques actuels, c'est précisément ce qu'il n'a pas besoin : des millions d'heures de vidéos pour chaque nouvelle tâche. La robotique industrielle et domestique bute depuis des années sur ce mur : chaque situation légèrement différente exige un nouvel entraînement coûteux. Si π0.7 tient ses promesses, il ouvre la voie à des robots capables de s'adapter à des environnements inconnus simplement en recevant des consignes verbales, un changement de paradigme potentiellement majeur pour les secteurs de la logistique, de l'aide à domicile ou de la restauration automatisée. La chercheuse Shi, doctorante à Stanford impliquée dans les travaux, note toutefois qu'il reste difficile d'identifier précisément d'où le modèle tire les connaissances qu'il mobilise, ce qui soulève des questions sur la prédictibilité et la fiabilité du système. Physical Intelligence s'inscrit dans une vague de startups qui parient sur des modèles de fondation pour la robotique, à l'image de ce que GPT-4 a représenté pour le texte. L'entreprise a levé des fonds significatifs ces dernières années et concurrence directement des laboratoires comme Google DeepMind ou Figure AI sur le terrain des robots généralistes. Le vrai enjeu n'est plus de construire des bras articulés précis, mais de créer des systèmes capables de raisonner sur le monde physique avec un minimum d'exemples. π0.7 représente une étape crédible dans cette direction, même si les tests restent pour l'instant en conditions contrôlées. Les prochains mois diront si cette capacité d'adaptation tient face à la complexité désordonnée du monde réel.

RobotiqueActu
1 source
OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?
114Le Big Data 

OpenAI s’attaque à la Fintech : quel impact pour le secteur financier ?

OpenAI a annoncé le 13 avril 2026 l'acquisition de Hiro Finance, une startup spécialisée dans la gestion financière personnalisée par intelligence artificielle. Fondée il y a seulement cinq mois par Ethan Bloch, Hiro avait développé une application capable de gérer plus d'un milliard de dollars d'actifs pour ses utilisateurs, en se positionnant comme un "CFO personnel" alimenté par l'IA. Le calendrier de fermeture est serré : l'application cesse d'accepter de nouveaux inscrits immédiatement, s'arrête définitivement le 20 avril, et les données utilisateurs seront supprimées le 13 mai 2026. Le fondateur, Ethan Bloch, n'est pas un inconnu du secteur : il avait déjà cédé Digit, une application d'épargne automatisée, pour environ 230 millions de dollars. OpenAI a confirmé que l'équipe de Hiro rejoindra ses rangs pour poursuivre sa vision à plus grande échelle, en s'appuyant sur l'infrastructure et la distribution de ChatGPT. Cette acquisition signale une offensive sérieuse d'OpenAI sur le marché de la finance personnelle, un secteur à haute valeur et haute sensibilité. En intégrant l'expertise de Hiro, notamment sa technologie de vérification mathématique des recommandations financières, OpenAI s'attaque directement à l'un des talons d'Achille des modèles génératifs : leur tendance aux erreurs chiffrées. Pour des millions d'utilisateurs de ChatGPT, cela pourrait se traduire concrètement par des fonctionnalités d'analyse de dépenses, d'optimisation d'épargne ou de conseil en investissement directement intégrées à l'interface. Pour les entreprises, les perspectives incluent des outils d'aide à la décision financière automatisés et personnalisés. C'est un mouvement qui menace directement les fintechs établies, les robo-advisors et même certaines banques traditionnelles qui investissent massivement dans leurs propres assistants IA. Cette opération s'inscrit dans une stratégie d'acquisitions ciblées qu'OpenAI déploie depuis plusieurs mois, préférant absorber des équipes expertes plutôt que de développer des compétences sensibles en interne. Le rachat récent de Promptfoo, outil open source utilisé par plus de 125 000 développeurs pour tester des agents IA, illustre la même logique : renforcer la fiabilité sur des cas d'usage critiques. La finance coche toutes ces cases. En Europe cependant, la trajectoire pourrait être plus complexe : depuis février 2025, l'AI Act classe les systèmes d'IA utilisés pour évaluer la solvabilité ou orienter des décisions financières comme "à haut risque", imposant audits de conformité, transparence algorithmique et supervision humaine obligatoire. ChatGPT Health reste toujours indisponible en France ; un "ChatGPT Finance" pourrait connaître le même sort. Pour les fintechs européennes, la question n'est plus de savoir si OpenAI entrera sur leur marché, mais à quelle vitesse et avec quelles contraintes réglementaires.

UEL'AI Act classe les systèmes d'IA d'évaluation financière comme 'à haut risque', ce qui pourrait bloquer un éventuel ChatGPT Finance en Europe, comme cela a été le cas pour ChatGPT Health en France.

BusinessOpinion
1 source
[AINews] Le dernier souffle de l'humanité
115Latent Space 

[AINews] Le dernier souffle de l'humanité

La semaine du 3 et 4 avril 2026 a été marquée par une série de lancements techniques majeurs dans l'industrie de l'IA. Google a introduit les "Skills" dans Chrome, permettant aux utilisateurs de transformer des prompts Gemini en actions réutilisables d'un seul clic sur n'importe quelle page web. Google DeepMind a publié Gemini Robotics-ER 1.6, un modèle de raisonnement spatial atteignant 93% de réussite en lecture d'instruments et améliorant la manipulation d'objets contraignants comme les liquides. OpenAI a étendu son programme Trusted Access avec GPT-5.4-Cyber, une version affinée pour les workflows de sécurité défensive. Hugging Face a lancé "Kernels" sur le Hub, des artefacts GPU précompilés affichant des gains de performance de 1,7x à 2,5x sur les bases PyTorch. Cursor, en collaboration avec NVIDIA, a déployé un système multi-agents d'optimisation CUDA atteignant 38% d'accélération en moyenne sur 235 benchmarks. Par ailleurs, Tencent a teasé HYWorld 2.0, un modèle 3D open source capable de générer des scènes éditables à partir d'une seule image, repositionnant les world models comme outils de création 3D plutôt que de génération vidéo. Ces annonces s'inscrivent dans un paradoxe que la newsletter AINews nomme le "Turkey Problem" : les modèles progressent à vitesse record, SWE-Bench est saturé, Mythos (le modèle interne d'Anthropic) atteint 78% sur SWE-Bench Pro, et GDPval évalue GPT-5.4 comme équivalent ou supérieur à des experts humains dans 83% des secteurs économiques, et pourtant les ingénieurs et travailleurs du savoir n'ont jamais été aussi occupés. Aaron Levie, CEO de Box, observe que ses équipes n'ont jamais autant travaillé. Tyler Cowen soutient qu'il faut travailler davantage maintenant, quelle que soit sa position sur l'impact de l'IA. Simon Last de Notion, lui, décrit des nuits sans sommeil liées à "l'anxiété des tokens au niveau agents". Plus les agents produisent, plus les humains courent derrière, du moins pour l'instant. La question sous-jacente est celle du point de bascule : jusqu'où la valeur humaine restera-t-elle "élastique" face à l'automatisation, avant d'atteindre le sort des chevaux après l'invention du moteur à combustion ? Notion travaille sur un benchmark interne baptisé "Notion's Last Exam", les chercheurs Greg Brockman et François Chollet planchent sur ARC-AGI-3, et plusieurs équipes cherchent à définir les prochaines frontières des évaluations en programmation. Mais ces efforts paraissent relativisés par une hypothèse de plus en plus discutée : si l'AGI dépend avant tout de la puissance matérielle, un supercalculateur de 20 gigawatts suffirait à franchir le seuil. L'IA avance vite, les benchmarks tombent les uns après les autres, et l'industrie tente encore de définir ce qui restera hors de portée des machines.

UELe lancement des Kernels par Hugging Face (entreprise française) sur son Hub apporte des gains de performance GPU directs (1,7x à 2,5x) aux développeurs et chercheurs européens utilisant PyTorch.

💬 Le Turkey Problem, c'est ce paradoxe qu'on sent tous mais qu'on arrive pas encore à nommer clairement : les modèles explosent les benchmarks, GPT-5.4 jugé aussi bon que des experts dans 83% des secteurs, et tout le monde bosse plus qu'avant, pas moins. Logique : plus l'outil produit, plus le scope s'élargit, et c'est nous qui courons derrière pour absorber la valeur générée. La comparaison avec les chevaux est là, dans la pièce, et personne n'ose vraiment finir la phrase.

LLMsActu
1 source
Le futur du génie logiciel redéfini
116MIT Technology Review 

Le futur du génie logiciel redéfini

L'ingénierie logicielle traverse une troisième révolution majeure depuis le début du siècle, après l'essor de l'open source et l'adoption des méthodologies DevOps et agiles. Selon un rapport publié par MIT Technology Review Insights, basé sur une enquête menée auprès de 300 dirigeants de l'ingénierie et de la technologie, l'IA agentique est déjà utilisée par 51 % des équipes de développement logiciel, et 45 % supplémentaires prévoient de l'adopter dans les 12 prochains mois. Aujourd'hui considérée comme une priorité d'investissement majeure par la moitié des organisations interrogées, elle sera la principale priorité pour plus de quatre entreprises sur cinq d'ici deux ans. Les équipes anticipent en moyenne une accélération de 37 % dans la livraison de projets logiciels, du pilote à la mise en production, et 98 % des répondants s'attendent à des gains de vitesse significatifs sur cette période. Contrairement aux assistants IA actuels, limités à des tâches ponctuelles comme la génération de code ou les tests, les agents IA de nouvelle génération sont capables de raisonner, de s'auto-diriger et de piloter des projets logiciels entiers de façon largement autonome. L'ambition déclarée de la majorité des organisations est d'atteindre une gestion agentique complète du cycle de vie produit et du cycle de développement logiciel : 41 % visent cet objectif pour la plupart ou la totalité de leurs produits d'ici 18 mois, un chiffre qui monterait à 72 % dans deux ans si les attentes se confirment. Les gains espérés portent principalement sur la vitesse, l'efficacité et la qualité, même si la majorité des répondants s'attend à des progrès modérés à court terme : 52 % anticipent des améliorations modestes, 14 % légères, et seulement 9 % jugent les gains potentiels transformateurs. Ce troisième tournant s'inscrit dans une dynamique plus large de maturation de l'IA dans les environnements professionnels, mais son adoption se heurte à des obstacles concrets. Les principaux freins identifiés sont l'intégration avec les systèmes existants et le coût des ressources de calcul, particulièrement dans des secteurs pionniers comme les médias, le divertissement et le matériel technologique. Les experts interrogés soulignent que les difficultés les plus profondes seront organisationnelles : changer les flux de travail et les habitudes d'équipes entières représente un chantier aussi exigeant que l'adoption technologique elle-même. Comme ce fut le cas avec DevOps et les méthodes agiles, les bénéfices complets de l'IA agentique nécessiteront des transformations culturelles et processuelles parfois douloureuses, mais les équipes semblent prêtes à en accepter le coût.

UELes équipes de développement européennes sont également concernées par cette transformation agentique, bien que le rapport ne fournisse pas de données spécifiques à la France ou à l'UE.

💬 37 % d'accélération en moyenne, c'est le genre de chiffre qu'on regarde deux fois pour être sûr. Ce que je retiens surtout de ce rapport, c'est que l'obstacle principal sera organisationnel, exactement comme ça l'a été avec DevOps, et ça se digère en années, pas en trimestres. Les agents vont s'imposer, mais le plus dur n'est pas là où tout le monde regarde.

OutilsOutil
1 source
Le système de tatouage numérique IA de Google a-t-il été percé ?
117The Verge AI 

Le système de tatouage numérique IA de Google a-t-il été percé ?

Un développeur indépendant affirme avoir réingénié SynthID, le système de tatouage numérique développé par Google DeepMind pour identifier les images générées par intelligence artificielle. L'individu, qui se présente sous le pseudonyme Aloshdenny, a publié son travail en open source sur GitHub et décrit sa méthode sur Medium : il aurait utilisé seulement 200 images générées par Gemini, des techniques de traitement du signal, et beaucoup de temps libre. Selon lui, aucun réseau de neurones ni accès propriétaire n'ont été nécessaires. Google conteste ces affirmations et affirme que SynthID n'a pas été compromis. Si la démonstration s'avérait fondée, les conséquences seraient significatives : SynthID est présenté comme un outil clé pour lutter contre la désinformation et les deepfakes, en permettant de tracer l'origine des contenus synthétiques. Pouvoir retirer ou insérer ces marqueurs invisibles à la demande remettrait en cause toute la chaîne de confiance que Google cherche à construire autour de ses modèles génératifs, avec des implications directes pour les plateformes, les journalistes et les régulateurs. SynthID a été lancé en 2023 par Google DeepMind comme solution technique à la prolifération des images artificielles non détectables. Le système intègre un filigrane imperceptible directement dans les pixels générés, censé résister aux modifications courantes. La controverse s'inscrit dans un débat plus large sur la robustesse des systèmes de provenance des contenus IA, alors que l'Union européenne et d'autres régulateurs poussent à l'adoption de standards de traçabilité. L'affaire souligne combien ces mécanismes, s'ils ne sont pas cryptographiquement solides, peuvent offrir une fausse sécurité.

UESi la vulnérabilité est confirmée, cela fragilise les fondements techniques sur lesquels s'appuient les régulateurs européens, notamment dans le cadre de l'AI Act, pour imposer des standards de traçabilité obligatoire des contenus synthétiques.

SécuritéOpinion
1 source
Microsoft prépare de nouvelles fonctionnalités pour Copilot, inspirées d'OpenClaw
118The Information AI 

Microsoft prépare de nouvelles fonctionnalités pour Copilot, inspirées d'OpenClaw

Microsoft développe de nouvelles fonctionnalités pour son assistant Copilot, directement inspirées d'OpenClaw, l'agent IA open source qui a bouleversé le secteur de l'intelligence artificielle ces derniers mois. Selon des déclarations faites dimanche à The Information, Omar Shahine, vice-président de Microsoft, a confirmé la création d'une équipe dédiée chargée d'explorer les possibilités offertes par des technologies comme OpenClaw dans un contexte d'entreprise. L'objectif central est de déployer un réseau d'agents toujours actifs, capables de travailler 24h/24 et 7j/7 pour le compte des utilisateurs au sein des applications Microsoft 365. Cette initiative répond à une pression concurrentielle croissante sur le segment des clients professionnels, notamment de la part d'Anthropic. Pour Microsoft, l'enjeu est de transformer Copilot d'un simple assistant conversationnel en un véritable opérateur autonome capable d'exécuter des tâches complexes sans intervention humaine constante. Ce type d'agents persistants pourrait modifier en profondeur la façon dont les entreprises délèguent des processus entiers à l'IA, allant bien au-delà de la simple génération de texte. Ce virage s'inscrit dans une dynamique plus large où les grandes plateformes logicielles cherchent à intégrer des capacités agentiques avancées avant que des acteurs spécialisés ne s'imposent sur ce marché. OpenClaw, en tant que projet open source, a imposé un nouveau standard d'autonomie et d'exécution de tâches pour les agents IA, forçant des géants comme Microsoft à accélérer leur feuille de route. L'intégration dans l'écosystème Microsoft 365, utilisé par des centaines de millions de professionnels, donnerait à ces agents une portée considérable si le projet aboutit.

UEL'intégration d'agents IA autonomes dans Microsoft 365, massivement adopté par les entreprises françaises et européennes, pourrait transformer en profondeur la façon dont les organisations délèguent leurs processus métier à l'IA.

OutilsOutil
1 source
☕️ Linux clarifie les règles d’utilisation de l’IA dans les contributions au noyau
119Next INpact 

☕️ Linux clarifie les règles d’utilisation de l’IA dans les contributions au noyau

Le dépôt officiel du noyau Linux, administré par Linus Torvalds, intègre depuis le 6 janvier 2026 un nouveau fichier de documentation baptisé coding-assistants.rst. Ce document, passé inaperçu pendant plusieurs mois, a émergé sur Hacker News le 11 avril et fixe les règles d'utilisation des assistants d'IA générative dans les contributions au noyau. La position adoptée est pragmatique : tout code produit avec l'aide de l'IA est soumis exactement aux mêmes exigences que le code écrit par un humain seul. Le point central est la signature : seul un humain peut certifier le Developer Certificate of Origin (DCO), et le développeur qui soumet un patch assume l'entière responsabilité de son contenu, qu'il ait utilisé GitHub Copilot, ChatGPT ou tout autre outil. Le document encourage également une attribution explicite lorsque l'IA a contribué au développement, afin de suivre l'évolution de son rôle dans le processus. Ces lignes directrices ont une portée concrète pour les dizaines de milliers de contributeurs du noyau Linux, base logicielle qui alimente les serveurs, smartphones Android et systèmes embarqués de la planète entière. En exigeant que chaque commit soit endossé par un humain identifiable et juridiquement responsable, le projet préserve la conformité à la licence GPL 2.0 tout en évitant les zones grises liées au droit d'auteur du code généré par IA, un sujet encore non tranché dans la plupart des juridictions. La règle d'attribution, bien que non obligatoire, permet aussi aux mainteneurs de détecter d'éventuels problèmes de qualité ou de licence liés à des générations automatiques non vérifiées, et donne de la visibilité sur la façon dont l'IA s'intègre progressivement dans l'un des projets open source les plus complexes au monde. Cette prise de position s'inscrit dans une évolution plus large de l'attitude de Torvalds envers l'IA. Fin 2025, lors de l'Open Source Summit au Japon, il avait publiquement exprimé son scepticisme face au battage médiatique autour de l'IA tout en reconnaissant ses qualités réelles, notamment pour la maintenance du code. Plus révélateur encore, il a lui-même pratiqué le "vibe-coding" pour un projet personnel, AudioNoise, mentionné explicitement dans son fichier README. Le noyau Linux, avec ses règles désormais clarifiées, reflète donc un consensus émergent dans l'industrie : ni interdiction dogmatique ni adoption aveugle, mais responsabilité humaine maintenue au centre du processus. La réaction lapidaire d'un internaute sur Hacker News résume bien le sentiment général : "C'est... étonnamment normal ?"

UELes développeurs et entreprises européens contribuant au noyau Linux doivent désormais respecter ces règles explicites sur la responsabilité humaine du code généré par IA, clarifiant les risques juridiques liés à la GPL 2.0 dans un contexte de droit d'auteur encore non tranché en Europe.

💬 La règle est simple : tu utilises de l'IA, tu assumes quand même. C'est la seule position qui tienne, parce qu'interdire les outils aurait été ridicule et laisser un flou juridique sur la GPL encore plus dangereux pour le projet. Et Torvalds qui fait du vibe-coding pour un projet perso pendant ce temps, c'est le détail qui dit tout.

RégulationReglementation
1 source
On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?
120Numerama 

On a testé le MacBook Pro M5 Pro avec 48 Go de RAM : la config parfaite pour de l’IA locale ?

Apple a lancé début 2025 son MacBook Pro équipé de la puce M5 Pro, disponible à partir de 3 199 euros dans sa configuration 48 Go de RAM unifée. La version haut de gamme, le M5 Max avec 128 Go de mémoire, monte jusqu'à 6 429 euros sans augmentation du stockage. Des journalistes tech ont soumis cette machine à des tests intensifs de LLM locaux, faisant tourner des modèles open source tels que Mistral, DeepSeek, les modèles Alibaba Qwen et plusieurs variantes Google Gemma directement sur le matériel, sans connexion cloud. Ce type de configuration intéresse de plus en plus les développeurs, chercheurs et professionnels qui veulent exécuter des modèles de langage en local pour des raisons de confidentialité, de latence ou de coût. La mémoire unifiée des puces Apple Silicon est une architecture particulièrement adaptée à ce cas d'usage : contrairement aux PC classiques où la RAM et la VRAM sont séparées, le CPU et le GPU partagent le même pool mémoire, ce qui permet de charger entièrement des modèles de 30 à 70 milliards de paramètres sans swap. Les résultats des tests montrent des vitesses d'inférence utilisables au quotidien, loin derrière un GPU NVIDIA haut de gamme mais suffisantes pour un workflow professionnel autonome. Cette tendance s'inscrit dans un mouvement plus large de démocratisation de l'IA locale, accéléré par la sortie de modèles open source performants et compacts. Des acteurs comme Mistral AI, DeepSeek ou Alibaba proposent désormais des versions quantisées de leurs modèles optimisées pour ce type de matériel. Face aux interrogations croissantes sur la souveraineté des données et la dépendance aux API cloud, le couple Apple Silicon + ollama ou LM Studio s'impose comme une alternative crédible pour les professionnels prêts à investir plusieurs milliers d'euros dans une machine autonome.

UELa tendance à l'IA locale répond aux préoccupations européennes de souveraineté des données, et Mistral AI figure parmi les modèles open source testés sur ce type de matériel.

💬 Le M5 Pro 48 Go, c'est le premier Mac où je me dis que l'IA locale est devenue praticable sans compromis majeur. Tu charges un modèle de 30 à 70 milliards de paramètres, ça tourne sur la même mémoire que le reste, pas de swap, pas de GPU externe à brancher. 3 200 euros de base, c'est cher, et la vitesse d'inférence reste loin d'un bon GPU NVIDIA, mais pour du travail autonome sur des données confidentielles, j'ai du mal à voir mieux dans ce format.

InfrastructureActu
1 source
AI Engineer Europe 2026
121Latent Space 

AI Engineer Europe 2026

La conférence AI Engineer Europe 2026 vient de s'achever après trois jours intenses qui ont réuni des centaines de professionnels de l'IA entre sessions en ligne, ateliers et plus d'une centaine de conférences en présentiel. L'événement a notamment inclus des visites au 10 Downing Street et des tables rondes en podcast avec des programmes comme ThursdAI et ETN. Sur le plan technique, la principale avancée annoncée est le modèle GLM-5.1 de Z.ai, qui a atteint la 3e place sur le classement Code Arena, dépassant apparemment Gemini 3.1 et GPT-5.4, et se positionnant au niveau de Claude Sonnet 4.6. Z.ai occupe désormais la première place parmi les modèles open source, à seulement 20 points du sommet du classement général. Alibaba a également profité de la dynamique de l'événement pour livrer Qwen Code v0.14.x, intégrant des canaux de contrôle à distance via Telegram, DingTalk et WeChat, des tâches récurrentes par cron, un contexte de 1 million de tokens avec 1 000 requêtes gratuites par jour, et un mode de planification. Ces annonces reflètent une tendance de fond qui s'impose comme nouveau paradigme d'architecture : le modèle "exécuteur léger + conseiller puissant". L'idée, formalisée conjointement par Anthropic au niveau de son API et par des chercheurs de Berkeley, consiste à utiliser un modèle rapide pour la majorité des tâches, en escaladant vers un modèle plus coûteux uniquement aux points de décision difficiles. Les résultats mesurés sont significatifs : associer Haiku à Opus doublerait le score sur BrowseComp par rapport à Haiku seul, tandis que Sonnet combiné à Opus améliorerait les performances sur SWE-bench Multilingual tout en réduisant le coût par tâche. Ce pattern a été immédiatement implémenté en open source via un middleware advisor pour LangChain DeepAgents, signe d'une adoption communautaire très rapide. Cette convergence s'inscrit dans une frustration opérationnelle croissante chez les praticiens : les grands modèles sont devenus spécialisés et instables selon les domaines. Yuchen Jin souligne par exemple qu'Opus excelle sur le frontend et les flux agentiques, pendant que GPT-5.4 est plus performant sur les systèmes backend et distribués, mais que les outils comme Claude Code ou Codex restent trop liés à un seul fournisseur. La demande se déplace donc vers des workflows capables de partager le contexte, de router automatiquement vers le bon modèle et de faire collaborer plusieurs LLM dans une seule session. Dans cet écosystème en mouvement, le framework Hermes Agent s'est distingué comme la plateforme avec le plus fort momentum, avec la sortie de sa version 0.8.0, le lancement de Hermes Workspace Mobile intégrant exécution d'outils en direct, navigateur de mémoire et catalogue de compétences, et l'annonce d'un mode FAST pour GPT-5.4.

UELa conférence s'est tenue en Europe et rassemble directement des praticiens européens ; les nouveaux patterns architecturaux (exécuteur léger + conseiller) et frameworks annoncés sont immédiatement applicables par les développeurs et entreprises IA en France et dans l'UE.

LLMsActu
1 source
LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone
122Numerama 

LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone

LM Studio, logiciel américain spécialisé dans l'exécution de modèles de langage en local sur Mac, a annoncé l'acquisition de Locally AI, une application française dédiée à l'iPhone. Locally AI permettait aux utilisateurs d'installer et de faire tourner directement sur leur appareil des modèles open source tels que Qwen d'Alibaba ou Gemma de Google, sans passer par le cloud. L'application se distinguait également par l'un des rares accès publics au modèle Apple Foundation, que la firme de Cupertino réserve normalement en exclusivité à ses propres fonctions Apple Intelligence. Cette acquisition marque une étape importante dans la démocratisation de l'IA locale sur mobile. En intégrant Locally AI à son écosystème, LM Studio étend son périmètre au-delà du Mac et s'impose comme un acteur transversal sur les plateformes Apple, couvrant désormais à la fois ordinateurs et smartphones. Pour les utilisateurs, cela représente une garantie de confidentialité renforcée : les données restent sur l'appareil, sans transmission à des serveurs tiers, ce qui intéresse particulièrement les professionnels soucieux de la souveraineté de leurs données. Le rachat s'inscrit dans une tendance de fond : la course aux modèles légers et efficaces capables de tourner sur du matériel grand public. Apple Silicon a ouvert la voie en offrant des puces suffisamment performantes pour inférer des modèles de plusieurs milliards de paramètres directement sur iPhone ou Mac. LM Studio, en consolidant l'offre iOS et macOS sous une même bannière, se positionne comme la référence de l'IA on-device dans l'univers Apple, face à des concurrents comme Ollama ou GPT4All qui restent cantonnés au desktop.

UEL'acquisition de Locally AI, startup française, par LM Studio illustre la consolidation du marché de l'IA on-device au profit d'acteurs américains, soulevant des questions de souveraineté numérique pour les professionnels français qui misaient sur cette solution indépendante.

BusinessOpinion
1 source
Le secteur de l'IA face à une course aux profits devenue existentielle
123The Verge AI 

Le secteur de l'IA face à une course aux profits devenue existentielle

Anthropic et OpenAI se trouvent à un tournant critique en 2026 : après avoir absorbé des centaines de milliards de dollars d'investissements en capital, en centres de données, en puces et en infrastructure, ces deux géants de l'IA doivent désormais prouver qu'ils peuvent devenir des entreprises véritablement rentables. Les projections financières des deux sociétés, révélées cette semaine par le Wall Street Journal, évoquent une croissance vertigineuse, avec des revenus se chiffrant en centaines de milliards de dollars d'ici la fin de la décennie. Cette semaine encore, OpenAI a levé 122 milliards de dollars supplémentaires, signalant que les marchés continuent de parier sur leur succès, mais la pression pour transformer cet argent en bénéfices n'a jamais été aussi intense, notamment à l'approche de deux des plus grandes introductions en bourse de l'histoire. Ce qui précipite la crise, c'est l'essor des agents IA comme Claude Code, Cowork ou Codex d'OpenAI, qui consomment des ressources de calcul à une cadence bien supérieure à ce que ces entreprises avaient anticipé. Pour gérer cette pression sur leurs infrastructures, les deux sociétés prennent des décisions douloureuses. OpenAI a brutalement supprimé son application de génération vidéo Sora le mois dernier, abandonnant au passage un contrat de licence d'un milliard de dollars avec Disney, au motif que le service coûtait trop cher à faire tourner et que la capacité de calcul était nécessaire pour Codex. Anthropic a de son côté décidé la semaine dernière d'interdire aux utilisateurs de Claude de consommer librement des ressources via le framework open source OpenClaw dans le cadre d'un abonnement standard, les forçant à basculer vers des plans à la consommation, nettement plus onéreux. Ces arbitrages révèlent une tension structurelle qui traverse toute l'industrie de l'IA : les modèles économiques construits sur l'abonnement mensuel ne tiennent plus face à l'appétit en calcul des agents. La plupart des dirigeants du secteur, interrogés ces derniers mois, anticipent d'ailleurs une vague de faillites spectaculaires parmi les acteurs les moins bien capitalisés, estimant que le marché ne pourra pas soutenir indéfiniment toutes les entreprises actuellement en course. Pour Anthropic et OpenAI, dont les introductions en bourse se profilent comme des événements majeurs, la question n'est plus simplement de savoir si l'IA générative est utile, mais si elle peut générer suffisamment de revenus pour justifier les valorisations colossales promises aux investisseurs. Les compromis opérationnels observés ces dernières semaines ne sont probablement que les premiers signes visibles d'un rééquilibrage profond qui va redéfinir quels produits survivent, et à quel prix.

UELe basculement vers une facturation à la consommation pour les agents IA va renchérir les coûts d'usage pour les développeurs et entreprises européens dépendant des APIs d'OpenAI et d'Anthropic.

BusinessOpinion
1 source
Anthropic a développé un modèle trop dangereux pour être publié
124Ben's Bites 

Anthropic a développé un modèle trop dangereux pour être publié

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos, dont les performances dépassent largement celles de son prédécesseur Opus 4.6 : le taux de réussite sur SWE-bench Pro bondit de 53,4 % à 77,8 %, et sur Terminal-Bench 2.0 de 65,4 % à 82 %. Mais Mythos ne sera pas mis à disposition du grand public, du moins pas dans l'immédiat. La raison est aussi simple qu'alarmante : le modèle s'est révélé exceptionnellement efficace pour détecter et exploiter des failles de sécurité logicielle. Là où Opus 4.6 parvenait à générer 2 exploits fonctionnels sur Firefox après des centaines de tentatives, Mythos en a produit 181. Il a également identifié des vulnérabilités vieilles de plusieurs décennies dans des projets critiques comme OpenBSD (un bug datant de 27 ans) et FFmpeg (16 ans). Plutôt que de le commercialiser, Anthropic a choisi de le confier à 12 entreprises partenaires dans le cadre du projet "Glasswing", accompagné d'un engagement de 100 millions de dollars en crédits d'utilisation et de 4 millions de dollars de dons à des organisations de sécurité open source. La décision de ne pas publier Mythos illustre un tournant dans la gestion des risques liés à l'IA : un modèle peut être trop capable pour être diffusé librement. Si des outils aussi puissants tombaient entre de mauvaises mains, ils pourraient être utilisés pour compromettre des infrastructures critiques à grande échelle, exploiter des failles ignorées depuis des décennies dans des logiciels massivement déployés. En orientant les capacités de Mythos vers la recherche défensive, Anthropic tente de transformer une menace potentielle en atout pour la sécurité informatique mondiale. Pour les entreprises partenaires de Glasswing, l'accès anticipé représente aussi un avantage concurrentiel considérable dans la course à la détection de vulnérabilités. Ce lancement intervient dans un contexte de forte concurrence entre les acteurs de l'IA de pointe. Selon une synthèse récente d'Ethan Mollick, Google, OpenAI et Anthropic dominent clairement le segment frontier, tandis que Meta fait une entrée remarquée avec son modèle Muse Spark, positionné entre Sonnet 4.6 et Opus 4.6, sans accès API encore disponible mais avec des promesses d'open source. xAI, en revanche, semble avoir décroché du peloton de tête, et les meilleurs modèles chinois accuseraient encore sept à neuf mois de retard. Mythos, décrit par certains observateurs comme "ce qu'Opus est à Sonnet, mais en plus puissant encore", marque une accélération qui pousse Anthropic à repenser ses propres critères de diffusion. La question qui s'ouvre désormais est celle du cadre réglementaire et éthique capable d'encadrer des modèles dont les capacités offensives dépassent ce que les institutions de sécurité sont prêtes à absorber.

UEL'émergence de modèles aux capacités offensives jugées trop dangereuses pour être diffusées publiquement accentue la pression sur l'UE pour adapter l'AI Act à des mécanismes de rétention préventive et d'audit des modèles frontier.

SécuritéOpinion
1 source
META invente l’IA social-native : une nouvelle couche entre contenu, recommandation et commerce
125FrenchWeb 

META invente l’IA social-native : une nouvelle couche entre contenu, recommandation et commerce

Meta opère un virage stratégique majeur dans son approche de l'intelligence artificielle, sous la direction d'Alexandr Wang, nouvellement nommé à la tête du Meta Superintelligence Lab. Le groupe annonce la fin d'un cycle structuré autour de Llama, son modèle open source, au profit d'une nouvelle orientation incarnée par Muse Spark. Ce repositionnement marque une rupture nette avec les années précédentes, où Meta avait bâti sa crédibilité IA sur la diffusion de modèles fondationnaux en open source destinés à la communauté des développeurs. L'enjeu est considérable : Meta cherche à tisser une couche d'IA directement intégrée entre le contenu, la recommandation algorithmique et le commerce sur ses plateformes. Cette "IA social-native" ne serait plus un outil externe greffé sur les produits, mais le système nerveux central d'un écosystème de 3,3 milliards d'utilisateurs quotidiens. Pour les annonceurs, les créateurs et les marques, cela représente une mutation profonde de la manière dont les contenus sont générés, filtrés et monétisés au sein de Facebook, Instagram et WhatsApp. Ce changement de cap intervient dans un contexte de compétition intense entre les grandes plateformes pour contrôler la prochaine couche d'interaction numérique. Google intègre Gemini dans Search et YouTube, Apple déploie ses fonctions IA dans iOS, et TikTok exploite déjà des recommandations fortement pilotées par l'IA. En faisant le pari d'une IA pensée pour l'usage social plutôt que pour la recherche fondamentale, Meta parie que la prochaine bataille ne se jouera pas dans les benchmarks, mais dans l'expérience quotidienne de milliards d'utilisateurs.

UELa refonte de l'IA de Meta affectera directement les annonceurs, créateurs et marques européens présents sur Facebook, Instagram et WhatsApp, dans un cadre réglementaire (AI Act, DSA) imposant des obligations spécifiques sur les systèmes de recommandation algorithmique.

BusinessOpinion
1 source
Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés
126Siècle Digital 

Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés

Project Glasswing, une initiative de cybersécurité soutenue par douze géants technologiques dont Apple, Google, Microsoft, AWS, Cisco, NVIDIA et JPMorgan Chase, a été lancée pour détecter automatiquement des failles dans les logiciels les plus critiques au monde. Le projet s'appuie sur un système d'intelligence artificielle baptisé Mythos, capable d'analyser en profondeur des bases de code massives pour y repérer des vulnérabilités jusqu'alors inconnues. Plus de quarante organisations gérant des infrastructures logicielles mondiales participent également à l'initiative, coordonnée sous l'égide de la Linux Foundation. Aucun accès public, abonnement commercial ou lancement grand public n'est prévu : le projet fonctionne exclusivement en consortium fermé. L'enjeu est considérable. Les logiciels open source constituent la colonne vertébrale de l'infrastructure numérique mondiale, des serveurs bancaires aux systèmes industriels en passant par les plateformes cloud. Des failles non détectées dans ces composants peuvent exposer des millions d'organisations simultanément, comme l'avait illustré la vulnérabilité Log4Shell en 2021. En automatisant la détection à grande échelle, Mythos promet de réduire drastiquement la fenêtre d'exposition entre l'introduction d'une faille et sa correction, un délai qui se compte aujourd'hui souvent en mois, voire en années. Ce projet s'inscrit dans une tendance de fond : après des années à construire des IA génératives grand public, les grandes entreprises technologiques réorientent une partie de leurs investissements vers des usages à fort impact systémique. La sécurité logicielle, longtemps sous-financée malgré sa criticité, attire désormais des coalitions inédites. Project Glasswing illustre aussi une réponse collective aux pressions réglementaires croissantes en Europe et aux États-Unis, qui imposent aux éditeurs une responsabilité accrue sur la sécurité de leurs chaînes d'approvisionnement logicielles.

UELes pressions réglementaires européennes sur la sécurité des chaînes d'approvisionnement logicielles (Cyber Resilience Act) sont citées comme moteur explicite du projet, qui vise à réduire les risques systémiques pesant sur les infrastructures numériques utilisées en Europe.

SécuritéOpinion
1 source
OpenClaw sur Claude, c’est fini ! Vous allez devoir passer à la caisse
127Le Big Data 

OpenClaw sur Claude, c’est fini ! Vous allez devoir passer à la caisse

Depuis le 4 avril 2026, Anthropic a exclu les outils tiers comme OpenClaw des limites de son abonnement Claude. Ces agents autonomes, jusqu'alors utilisables dans le cadre d'un forfait mensuel classique, doivent désormais passer par une facturation à l'usage via l'API, des crédits prépayés ou des forfaits dédiés. Pour amortir la transition, Anthropic a proposé un crédit unique équivalent à un mois d'abonnement, valable jusqu'au 17 avril, ainsi que des réductions pouvant atteindre 30 % sur certains forfaits. OpenClaw, outil open source créé par Peter Steinberger, permettait d'automatiser des tâches complexes, lecture de fichiers, navigation web, exécution de scripts, appels d'API, en s'appuyant sur les modèles Claude sans surcoût direct pour l'utilisateur. Ce changement bouleverse l'équation économique pour les développeurs et les utilisateurs avancés. Un agent comme OpenClaw ne génère pas quelques requêtes par session : il peut en produire des dizaines, voire des centaines en arrière-plan, consommant des ressources sans commune mesure avec un usage conversationnel classique. Anthropic reconnaît que ces outils exercent une pression excessive sur ses infrastructures, rendant le modèle forfaitaire intenable face à des agents autonomes et puissants. Concrètement, les développeurs qui intégraient OpenClaw dans leurs workflows pourraient voir leurs coûts mensuels dépasser largement le prix de leur ancien abonnement, selon l'intensité d'utilisation. Cette décision s'inscrit dans une évolution plus large du secteur : le passage des abonnements fixes vers une logique de "pay-as-you-go", calquée sur le modèle du cloud computing. Les abonnements Claude ont été conçus pour des interactions humaines de type chatbot, mais l'essor des agents IA autonomes a profondément changé la nature des usages. Peter Steinberger accuse Anthropic d'avoir intégré certaines idées popularisées par OpenClaw avant de fermer l'accès à son écosystème, et évoque des discussions avec l'entreprise qui n'ont abouti qu'à un report d'une semaine. Sur Hacker News, la communauté est partagée entre compréhension des contraintes économiques et sentiment d'une stratégie d'attraction puis de verrouillage progressif. Ce que fait Anthropic aujourd'hui, d'autres plateformes pourraient le reproduire demain : à mesure que les agents IA deviennent plus puissants et plus autonomes, la facturation à l'acte s'imposera probablement comme la norme du secteur.

UELes développeurs français et européens utilisant des agents autonomes comme OpenClaw sur Claude devront migrer vers une facturation à l'usage, potentiellement bien plus coûteuse selon l'intensité d'utilisation.

BusinessOpinion
1 source
Google lance une application pour utiliser son IA en local sur iPhone et Android
128Numerama 

Google lance une application pour utiliser son IA en local sur iPhone et Android

Google a lancé AI Edge Gallery, une nouvelle application disponible sur iPhone et Android permettant de faire tourner des modèles d'intelligence artificielle directement sur l'appareil, sans connexion réseau. L'application s'appuie sur les modèles Gemma 4, la dernière génération de modèles open source légers de Google, conçus pour fonctionner sur des terminaux mobiles aux ressources limitées. Elle propose plusieurs expériences interactives exploitant ces capacités d'inférence locale. Cette initiative marque une étape concrète dans la course à l'IA embarquée sur smartphone. Faire tourner un modèle de langage en local élimine la latence réseau, préserve la confidentialité des données et permet une utilisation hors connexion, trois avantages majeurs pour les utilisateurs mobiles. Pour Google, c'est aussi un moyen de tester l'adoption de Gemma 4 auprès du grand public et de démontrer que ses modèles open source sont compétitifs sur des appareils du quotidien, face à des concurrents comme Apple Intelligence ou les solutions embarquées de Meta. Google s'inscrit ici dans une tendance de fond : après avoir imposé Gemini comme assistant par défaut sur Android, l'entreprise cherche à étendre sa présence sur iOS tout en investissant dans l'IA on-device. Gemma 4, présenté récemment, est précisément optimisé pour ce type de déploiement. AI Edge Gallery fonctionne pour l'instant comme un terrain d'expérimentation ouvert, ce qui laisse supposer qu'une intégration plus profonde dans les produits Google grand public pourrait suivre selon les retours des utilisateurs.

UEL'inférence locale préserve les données sur l'appareil, un avantage concret pour les utilisateurs européens soumis au RGPD, sans transfert vers des serveurs tiers.

OutilsOutil
1 source
Anthropic de nouveau confronte a une penurie de puissance de calcul
129The Information AI 

Anthropic de nouveau confronte a une penurie de puissance de calcul

Anthropic a annoncé lundi avoir franchi le cap de 30 milliards de dollars de revenus annualisés, ce qui représente une croissance de 58% depuis fin février. Ce chiffre suggère que l'entreprise aurait dépassé OpenAI, qui affichait 25 milliards de dollars de revenus annualisés en février dernier. La société, créatrice du chatbot Claude, confirme ainsi sa montée en puissance rapide sur le marché de l'intelligence artificielle générative. Cette progression spectaculaire s'accompagne pourtant d'une décision qui a provoqué la colère de la communauté des développeurs. Vendredi, Anthropic a annoncé que les utilisateurs souhaitant intégrer Claude dans des outils tiers -- comme l'agent IA open source OpenClaw -- devront désormais acheter une capacité supplémentaire dédiée, et ne pourront plus s'appuyer sur leur abonnement Claude existant. Cette restriction est directement liée à une pénurie de capacité de calcul : la demande explose si vite qu'Anthropic ne parvient pas à fournir suffisamment de ressources pour tous les usages simultanément. Derrière cette décision se cache un problème structurel qui touche l'ensemble du secteur : la course effrénée à la puissance de calcul. Anthropic, comme ses concurrents, investit massivement en infrastructure pour tenir le rythme de sa croissance. En bridant l'accès des développeurs tiers, l'entreprise cherche à préserver la qualité de service pour ses clients directs, au risque de freiner l'adoption de Claude dans l'écosystème open source -- un arbitrage risqué alors que la guerre des plateformes d'IA s'intensifie.

UELes développeurs européens intégrant Claude dans des outils tiers devront désormais souscrire une capacité de calcul dédiée, augmentant le coût d'accès à l'API et freinant l'adoption dans l'écosystème open source européen.

💬 30 milliards annualisés, c'est impressionnant, mais là ils ralentissent les devs tiers pour tenir la charge, ce qui est quand même un signal d'alarme. Quand t'as les ressources pour construire l'infra et que t'arrives pas à suivre ta propre demande, ça veut dire que la croissance est vraiment verticale. Reste que brider l'écosystème open source pour protéger les clients directs, c'est un pari risqué sur le long terme.

BusinessOpinion
1 source
ChatGPT, Gemini, Claude… Pika donne un visage (et une voix) à toutes vos IA !
130Le Big Data 

ChatGPT, Gemini, Claude… Pika donne un visage (et une voix) à toutes vos IA !

Pika Labs a lancé le 2 avril 2026 PikaStream 1.0, un modèle temps réel qui transforme n'importe quel agent IA -- ChatGPT, Claude, Gemini ou autre -- en interlocuteur visible et vocal dans une visioconférence. Concrètement, l'outil permet à un agent IA de rejoindre une réunion Google Meet sous forme d'avatar animé, avec une voix clonée en quelques secondes d'enregistrement. Le tarif annoncé est de 0,20 dollar la minute d'utilisation. Le module principal, pikastream-video-meeting, est distribué en open source sur GitHub dans le cadre d'une initiative plus large baptisée Pika Skills, un ensemble de briques modulaires destinées à étendre les capacités des agents IA. L'intégration ne requiert pas de configuration complexe : il suffit de partager un lien de réunion pour que l'agent prenne le relais. Ce que PikaStream change fondamentalement, c'est le passage de l'IA textuelle à l'IA incarnée. Jusqu'ici, interagir avec un modèle comme Claude ou Gemini restait confiné à une interface de chat, parfois augmentée de la voix, mais sans présence visuelle. PikaStream franchit ce cap en dotant l'agent d'un avatar cohérent avec l'identité de l'utilisateur ou de son entreprise, d'une voix personnalisée et d'une mémoire persistante des échanges passés. L'agent sait avec qui il travaille, ce qui a déjà été discuté, et maintient une personnalité stable d'une réunion à l'autre. Il peut aussi agir en direct pendant l'appel -- chercher un document, rédiger un compte rendu, mettre à jour un outil de gestion de projet ou envoyer un e-mail -- sans interrompre la conversation. Pour les équipes distribuées, cela ouvre la possibilité de déléguer les réunions de routine à un agent, réduisant la fatigue liée aux appels vidéo répétitifs. La sortie de PikaStream s'inscrit dans une course plus large entre les acteurs de l'IA à rendre leurs modèles physiquement présents dans les workflows professionnels. Des projets comme Microsoft Copilot ou les agents vocaux d'OpenAI explorent des territoires proches, mais PikaStream se distingue par son approche ouverte et son interopérabilité explicite avec les agents existants, quelle que soit leur origine. Le choix de l'open source est stratégique : en laissant les développeurs adapter et enrichir le module, Pika Labs mise sur une adoption rapide dans les environnements techniques, là où les solutions fermées butent souvent sur des résistances d'intégration. Les questions éthiques restent cependant ouvertes -- cloner une voix et un visage pour qu'une IA parle en votre nom en réunion soulève des enjeux de consentement, d'authenticité et de responsabilité qui n'ont pas encore de réponse réglementaire claire. La prochaine étape probable sera l'intégration avec d'autres plateformes de visioconférence comme Zoom ou Microsoft Teams.

UELa technologie de clonage vocal et d'avatar IA soulève des enjeux de consentement et d'authenticité non encadrés par l'AI Act européen, dont les dispositions sur les systèmes d'identification biométrique pourraient s'appliquer à ce type d'usage professionnel.

OutilsOutil
1 source
Gemma 4 dépasse les 2 millions de téléchargements
131Latent Space 

Gemma 4 dépasse les 2 millions de téléchargements

Gemma 4, le modèle open source de Google DeepMind, a franchi les 2 millions de téléchargements en moins d'une semaine après son lancement, selon les données compilées par AINews pour la période du 4 au 6 avril 2026. Ce rythme d'adoption est remarquable : à titre de comparaison, Gemma 3 avait totalisé 6,7 millions de téléchargements sur l'ensemble de l'année écoulée, et Gemma 2 avait atteint 1,4 million depuis son lancement en juin 2024. Seul Qwen 3.5, avec environ 27 millions de téléchargements cumulés depuis le lancement de son modèle phare 397B-A17B, dépasse largement ces chiffres. Google a par ailleurs annoncé une keynote dédiée à Gemma 4 depuis Londres dans les prochains jours. Sur le terrain, les signaux d'adoption sont concrets : le modèle Gemma 4 E2B tourne sur iPhone 17 Pro à environ 40 tokens par seconde via MLX, Red Hat a publié des versions quantifiées du modèle 31B en formats NVFP4 et FP8-block, et Ollama a déployé Gemma 4 sur son cloud, adossé aux GPU NVIDIA Blackwell. Ce qui distingue Gemma 4 des précédentes sorties open source, c'est moins sa performance sur les benchmarks que sa capacité à fonctionner directement sur du matériel grand public, en particulier les puces Apple Silicon. Cette dynamique "local-first" crée une pression réelle sur les abonnements payants aux services cloud d'IA : plusieurs observateurs ont souligné que Gemma 4 en local comble suffisamment l'écart de qualité pour rendre un abonnement Claude moins indispensable pour certains usages. HuggingFace héberge gratuitement le modèle, ce qui ouvre la voie à son intégration dans des workflows d'agents sans coût d'inférence. L'ensemble des signaux pointe vers un déplacement structurel : les modèles ouverts ne sont plus seulement des alternatives pour les développeurs expérimentés, ils deviennent des références pour l'inférence en bordure de réseau. Le succès de Gemma 4 illustre également un phénomène plus large : la réussite d'un modèle open source repose désormais autant sur la coordination écosystémique que sur la qualité des poids eux-mêmes. Le lancement a été accompagné d'un soutien simultané de HuggingFace, vLLM, llama.cpp, Ollama, NVIDIA, Unsloth, SGLang, Docker et Cloudflare, une mobilisation rarement vue à cette échelle. En parallèle, Hermes Agent de Nous Research a capté l'attention de la communauté des développeurs d'agents, notamment grâce à sa boucle d'auto-amélioration combinant mémoire persistante et génération autonome de compétences -- une approche qui se distingue d'OpenClaw par son architecture plus opinionée et des compétences définies par les auteurs humains plutôt que générées à la volée. Ces deux dynamiques -- l'essor du local et la maturation des frameworks d'agents open source -- dessinent les contours d'un écosystème IA de plus en plus décentralisé.

UEHuggingFace, entreprise d'origine française, héberge gratuitement Gemma 4, facilitant son intégration dans les workflows européens sans coût d'inférence.

LLMsOpinion
1 source
Construire un pipeline Netflix VOID de suppression d'objets vidéo avec CogVideoX
132MarkTechPost 

Construire un pipeline Netflix VOID de suppression d'objets vidéo avec CogVideoX

Netflix a publié VOID (Video Object Inpainting and Detection), un modèle d'intelligence artificielle capable de supprimer des objets d'une vidéo et de reconstituer le fond de manière réaliste. Le pipeline repose sur CogVideoX-Fun-V1.5-5b-InP, un modèle d'inpainting vidéo développé par Alibaba PAI et distribué via Hugging Face. Le code source est accessible publiquement sur GitHub à l'adresse netflix/void-model, et le checkpoint officiel void_pass1.safetensors est téléchargeable depuis le dépôt netflix/void-model sur Hugging Face. Pour faire tourner le système, il faut au minimum 40 Go de VRAM, un GPU A100 étant recommandé par les ingénieurs de Netflix eux-mêmes. Le workflow comprend plusieurs étapes : cloner le dépôt, télécharger les modèles de base, préparer des séquences vidéo d'entrée avec leurs masques, puis lancer l'inférence pour obtenir une vidéo où l'objet ciblé a été effacé et remplacé par un fond cohérent. Une intégration optionnelle avec l'API d'OpenAI permet de générer automatiquement un prompt décrivant le fond souhaité, ce qui améliore la qualité du résultat final. Ce type d'outil représente une avancée significative pour la production audiovisuelle. Supprimer un objet indésirable d'une scène vidéo, un câble visible, un accessoire oublié en arrière-plan ou un logo non autorisé, est une opération courante en post-production qui nécessite aujourd'hui des heures de travail manuel dans des logiciels spécialisés comme Adobe After Effects ou DaVinci Resolve. Avec VOID, Netflix propose une approche automatisée basée sur la génération vidéo, où le modèle ne se contente pas de masquer une zone mais reconstitue activement ce qui se trouverait derrière l'objet supprimé, en tenant compte du mouvement de la caméra et de la cohérence temporelle entre les frames. Pour les studios de production et les équipes VFX, cela pourrait réduire drastiquement les coûts et délais associés aux corrections de plans en post-production. Netflix n'est pas le premier acteur à s'aventurer sur ce terrain. Des outils comme RunwayML Gen-3 ou Adobe Firefly Video proposent déjà des fonctionnalités similaires en mode SaaS, mais rares sont les modèles publiés en open source avec un pipeline complet et reproductible. En rendant VOID accessible, Netflix s'inscrit dans une tendance récente de grandes entreprises tech qui publient des modèles de recherche appliquée, à l'image de Meta avec SAM 2 pour la segmentation vidéo ou de Google avec ses travaux sur l'édition de scènes. L'architecture choisie, basée sur CogVideoX et les transformers de diffusion vidéo, reflète l'état de l'art actuel dans le domaine. La prochaine étape probable sera l'intégration de passes multiples et le traitement de vidéos longue durée, l'infrastructure actuelle étant limitée à des clips courts en raison des contraintes mémoire des GPU disponibles.

UELes studios de production et équipes VFX français et européens pourraient réduire leurs coûts de post-production grâce à ce pipeline open source de suppression d'objets vidéo, accessible sur GitHub et Hugging Face.

CréationOpinion
1 source
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
133VentureBeat AI 

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

L'ère des agents autonomes d'intelligence artificielle est désormais une réalité concrète. Trois outils dominent aujourd'hui ce nouveau paysage : OpenClaw (anciennement Moltbot et Clawdbot), qui a dépassé les 150 000 étoiles sur GitHub en quelques jours et s'installe directement sur les machines locales avec un accès profond au système ; Google Antigravity, un agent de codage intégré à un environnement de développement capable de mener un projet de l'idée à la production de façon interactive ; et Claude Cowork d'Anthropic, qui automatise des tâches juridiques et financières spécialisées comme la révision de contrats et le tri de NDA. Son lancement a d'ailleurs provoqué une chute notable des cours boursiers de plusieurs sociétés de legal-tech et de SaaS, un phénomène baptisé « SaaSpocalypse » par les analystes. Ces trois outils représentent trois modèles distincts d'autonomie : l'agent généraliste avec accès système, l'agent spécialiste du code, et l'agent expert métier. L'impact de ces technologies est déjà mesurable. Claude Cowork, en s'attaquant au droit et à la finance, menace directement des catégories entières de logiciels professionnels et de prestataires humains. La valeur de ces agents repose précisément sur l'étendue de l'accès qu'on leur accorde, fichiers, données sensibles, systèmes critiques, ce qui démultiplie leur efficacité mais aussi leur potentiel de nuisance. Un agent fiscal pourrait manquer des opportunités d'économies importantes, ou pire, intégrer des déductions illégales. Un agent de code pourrait injecter des failles silencieuses dans une infrastructure entière. La question centrale n'est plus technique mais systémique : jusqu'où faire confiance à des entités comme Anthropic ou Google pour que leurs agents ne causent pas de préjudice, ne fuient pas des données ou ne favorisent pas certains acteurs de façon illicite ? Ce virage agentic s'inscrit dans une accélération amorcée avec ChatGPT fin 2022, mais qui prend aujourd'hui une dimension inédite avec des agents capables d'agir, pas seulement de répondre. OpenClaw complique davantage l'équation en étant open source : sans autorité centrale de gouvernance, le contrôle des usages devient pratiquement impossible. Face à ce chaos organisé, plusieurs conditions apparaissent indispensables pour tirer parti de ces outils sans en subir les effets négatifs : journalisation systématique de chaque action de l'agent, validation humaine sur les décisions critiques, et surtout l'établissement d'une ontologie partagée entre systèmes hétérogènes pour définir un cadre commun de comportement. Combinés à des mécanismes d'identité distribuée et de confiance mutuelle entre agents, ces garde-fous pourraient permettre à l'écosystème agentic de tenir ses promesses sans déclencher la panique que redoutent les observateurs les plus prudents.

UELa disruption des marchés legal-tech et SaaS décrite menace des entreprises européennes opérant dans ces secteurs, dans un vide réglementaire concernant les agents autonomes.

💬 La SaaSpocalypse, c'est pas un buzzword de journaliste en manque d'inspiration, c'est ce qui arrive quand un agent fait en 30 secondes ce pour quoi une boîte facturait 300€ par mois. Ce qui me préoccupe vraiment, c'est OpenClaw : open source sans gouvernance centrale, le contrôle des usages devient une blague. Les logs et la validation humaine, bonne idée sur le papier, mais ça n'empêchera pas le premier incident sérieux.

OutilsOutil
1 source
Google dévoile 4 IA qui peuvent tourner sur votre smartphone ou votre ordinateur, sans Internet
13401net 

Google dévoile 4 IA qui peuvent tourner sur votre smartphone ou votre ordinateur, sans Internet

Google a présenté Gemma 4, sa nouvelle famille de quatre modèles d'intelligence artificielle en open source, conçus pour fonctionner directement sur des appareils grand public, smartphones et ordinateurs, sans nécessiter de connexion internet. Ces quatre variantes, pensées pour des usages et des capacités de calcul différents, sont accessibles librement aux développeurs et aux entreprises souhaitant les intégrer dans leurs propres applications. L'enjeu est considérable pour les utilisateurs : faire tourner une IA en local signifie que les données ne quittent plus l'appareil, ce qui renforce la confidentialité et supprime la dépendance aux serveurs distants. Pour les développeurs, c'est aussi la possibilité de déployer des applications IA fonctionnelles dans des environnements sans connectivité stable, ce qui ouvre des marchés entiers, du secteur médical aux zones rurales. Google entre ainsi en compétition directe sur le segment des modèles légers et open source, un terrain jusqu'ici dominé par des acteurs comme DeepSeek, le laboratoire chinois qui avait surpris l'industrie début 2025 avec des modèles très performants à faible coût, et Qwen d'Alibaba. La course aux modèles embarqués s'intensifie, chaque acteur cherchant à s'imposer comme standard dans les écosystèmes locaux avant que le marché ne se cristallise.

UELes développeurs et entreprises européennes peuvent intégrer Gemma 4 en local, facilitant la conformité RGPD en évitant tout transfert de données vers des serveurs tiers.

💬 Gemma 4, c'est Google qui arrive enfin sur un terrain où DeepSeek et Qwen s'installaient tranquillement depuis un an. Quatre modèles open source qui tournent en local, donc tes données restent sur ta machine, ce qui change vraiment la donne pour tout ce qui touche à la santé ou à la conformité RGPD. La question maintenant, c'est qui va s'imposer comme standard avant que le marché se fige, et là Google part avec un avantage de distribution qu'aucun labo chinois n'a.

LLMsActu
1 source
Les sessions persistantes et l'exécution de commandes shell grâce à la configuration du système de fichiers
135AWS ML Blog 

Les sessions persistantes et l'exécution de commandes shell grâce à la configuration du système de fichiers

Amazon a annoncé deux nouvelles fonctionnalités pour son service Bedrock AgentCore Runtime : le stockage de session persistant (en préversion publique) et l'exécution directe de commandes shell via InvokeAgentRuntimeCommand. Ces capacités répondent à deux problèmes concrets que rencontrent les équipes qui déploient des agents IA en production. Chaque session AgentCore Runtime tourne dans une microVM isolée avec son propre noyau, sa mémoire et son système de fichiers. Jusqu'ici, à l'arrêt de la session, tout ce que l'agent avait créé — dépendances installées, code généré, historique git local — disparaissait. Le stockage managé de session règle ce problème en offrant un répertoire persistant, configurable au moment de la création de l'agent via le paramètre filesystemConfiguration, qui survit aux cycles arrêt/reprise même lorsque l'environnement de calcul est remplacé. La seconde fonctionnalité, InvokeAgentRuntimeCommand, permet d'exécuter des commandes shell déterministes comme npm test ou git push directement dans la microVM associée à la session active, sans passer par le modèle de langage. L'impact est immédiat pour les équipes qui construisent des agents de développement. Avant ces ajouts, un agent de coding pouvait passer vingt minutes à scaffolder un projet — créer l'arborescence, installer les dépendances, configurer les outils de build — pour que tout disparaisse à la première pause. Au redémarrage, tout était à recommencer : vingt minutes de calcul brûlées avant de pouvoir reprendre un travail utile. De même, faire transiter une commande déterministe comme l'exécution de tests via le LLM ajoutait du coût en tokens, de la latence et une non-déterminisme inutile à une opération parfaitement prévisible. Les contournements existants, comme écrire une logique de checkpoint vers Amazon S3 avant chaque arrêt de session ou maintenir les sessions actives en permanence, fonctionnaient mais reportaient la complexité dans le code de l'agent plutôt que de résoudre le problème à la racine. Ces annonces s'inscrivent dans une évolution plus large du rôle des agents IA dans les workflows de développement. Le système de fichiers est devenu la mémoire de travail principale des agents, leur permettant de dépasser les limites du contexte des LLM. Amazon Bedrock AgentCore Runtime, en intégrant nativement la persistance et l'exécution de commandes shell au niveau de l'infrastructure, cherche à s'imposer comme runtime de référence pour les agents de production. Cette approche concurrence directement des solutions comme les environnements de sandbox de Modal, les DevContainers GitHub Codespaces, ou les outils d'orchestration d'agents open source comme LangGraph et AutoGen, qui proposent leurs propres mécanismes de gestion d'état. La disponibilité en préversion publique du stockage de session laisse anticiper une disponibilité générale dans les prochains mois, vraisemblablement accompagnée d'une tarification spécifique liée au volume de stockage persistant utilisé.

UELes équipes françaises et européennes développant des agents IA sur AWS Bedrock peuvent directement adopter ces nouvelles capacités de persistance et d'exécution shell, sans impact réglementaire spécifique à l'Europe.

💬 C'est exactement le problème que personne ne veut admettre publiquement : un agent qui perd son contexte à chaque pause, c'est du calcul jeté à la poubelle. Amazon règle ça au niveau infrastructure plutôt qu'en laissant chaque équipe bricoler ses checkpoints S3, et c'est le bon endroit pour le faire. Reste la question du prix, parce que du stockage persistant managé sur AWS, ça ne va pas rester gratuit longtemps.

InfrastructureOpinion
1 source
Alibaba lance un nouveau modèle d'IA propriétaire
136The Information AI 

Alibaba lance un nouveau modèle d'IA propriétaire

Alibaba a lancé jeudi un nouveau grand modèle de langage baptisé Qwen3.6-Plus, en mettant en avant ses capacités avancées dans le domaine des agents IA autonomes. Ce lancement marque un tournant notable pour le géant technologique chinois, qui propose cette fois un modèle en accès fermé — à l'inverse de sa stratégie habituelle. En l'espace de deux ans, Alibaba s'était imposé comme l'un des leaders mondiaux de l'open source en IA, notamment grâce à la série Qwen, largement adoptée par la communauté internationale des développeurs. Ce changement de cap a des implications concrètes pour les milliers d'équipes techniques qui utilisaient les modèles Qwen comme base libre pour leurs propres applications. Un modèle fermé signifie moins de transparence sur l'architecture, l'impossibilité de l'héberger soi-même, et une dépendance accrue aux infrastructures cloud d'Alibaba. Pour l'industrie, c'est aussi le signal que les grandes entreprises chinoises commencent à monétiser plus agressivement leurs avancées en IA, après une phase de conquête par l'open source. Ce virage intervient dans un contexte de compétition mondiale intense entre géants tech américains et chinois sur le terrain des modèles frontières. OpenAI, Google et Anthropic maintiennent leurs modèles les plus puissants en accès fermé ; Alibaba, Meta et Mistral avaient jusqu'ici joué la carte inverse pour gagner en adoption. Le lancement de Qwen3.6-Plus suggère qu'Alibaba estime désormais avoir suffisamment de poids pour imposer ses conditions — et que la phase gratuite de l'IA ouverte touche peut-être à sa fin pour les acteurs majeurs.

UELes équipes européennes qui utilisaient les modèles Qwen comme base open source devront reconsidérer leur architecture, le passage au modèle fermé impliquant une dépendance accrue aux infrastructures cloud d'Alibaba et la perte de la liberté d'auto-hébergement.

💬 Alibaba qui passe au fermé, c'est un peu la fin de la récré. Pendant deux ans, la série Qwen a été une aubaine pour des milliers d'équipes qui voulaient de la puissance sans l'addition, et ceux qui ont construit dessus vont devoir revoir leurs plans. Le vrai signal ici, c'est que la phase de conquête par l'open source est terminée : Alibaba a sa base d'utilisateurs, elle la monétise.

LLMsOpinion
1 source
Gemma 4 : intelligence multimodale de pointe sur appareil
137HuggingFace Blog 

Gemma 4 : intelligence multimodale de pointe sur appareil

Google DeepMind a lancé Gemma 4, sa nouvelle génération de modèles open source, disponible depuis début avril 2025. Cette famille comprend quatre variantes allant de 1 milliard à 27 milliards de paramètres, toutes capables de traiter texte et images simultanément. Les modèles sont disponibles sur Hugging Face, Google AI Studio et Kaggle, avec des licences permissives autorisant leur usage commercial. La particularité de Gemma 4 réside dans sa capacité multimodale optimisée pour les appareils locaux, depuis les smartphones jusqu'aux ordinateurs personnels, sans dépendance à un serveur distant. Le modèle 27B affiche des performances comparables à des systèmes bien plus volumineux sur les benchmarks de raisonnement et de vision, tandis que le 1B peut tourner directement sur mobile, ouvrant la voie à des applications IA entièrement hors ligne. Cette sortie s'inscrit dans la compétition ouverte qui oppose Google à Meta, Microsoft et Mistral sur le segment des modèles open source embarqués. Depuis Gemma 1 en février 2024, Google a accéléré le rythme de ses publications pour ne pas céder ce terrain stratégique à Llama. La course aux modèles multimodaux légers devient un enjeu central pour l'IA souveraine et les usages professionnels sans connectivité cloud.

UELes modèles embarqués sans dépendance cloud s'alignent avec les exigences d'IA souveraine portées par l'UE, facilitant des déploiements professionnels conformes au RGPD sans transfert de données vers des serveurs tiers.

LLMsOpinion
1 source
OpenAI confirme officiellement sa méga-levée de fonds et la super-app ChatGPT
138The Decoder 

OpenAI confirme officiellement sa méga-levée de fonds et la super-app ChatGPT

OpenAI a officiellement confirmé une levée de fonds de 122 milliards de dollars, portant sa valorisation à 852 milliards de dollars — un record absolu pour une entreprise privée dans le secteur technologique. Simultanément, la société a dévoilé le « ChatGPT Super App », une application tout-en-un qui ambitionne de centraliser de nombreux usages numériques au sein d'une seule interface. Ce financement colossal signale un virage stratégique assumé vers l'entreprise : OpenAI ne se positionne plus seulement comme un laboratoire de recherche, mais comme un acteur commercial à grande échelle. Le Super App vise à fidéliser des centaines de millions d'utilisateurs en consolidant messagerie, recherche, création de contenu et automatisation dans un écosystème propriétaire, à la manière de WeChat en Chine. Cette annonce intervient alors qu'OpenAI fait face à une concurrence croissante d'Anthropic, Google Gemini et des modèles open source comme DeepSeek. La transformation en société à but lucratif, entamée fin 2024, ouvre la voie à ces méga-levées et prépare un éventuel appel public à l'épargne. Avec près d'un trillion de dollars de valorisation en ligne de mire, OpenAI joue désormais dans la cour des géants technologiques établis.

UELa valorisation record d'OpenAI et son virage vers une super-application propriétaire renforce la domination des acteurs américains et accentue la pression sur les initiatives européennes d'IA souveraine.

BusinessActu
1 source
Hugging Face publie TRL v1.0 : une suite unifiée pour l'entraînement post-initial (SFT, DPO, GRPO)
139MarkTechPost 

Hugging Face publie TRL v1.0 : une suite unifiée pour l'entraînement post-initial (SFT, DPO, GRPO)

Hugging Face a officiellement publié TRL (Transformer Reinforcement Learning) v1.0, marquant le passage de cette bibliothèque d'un outil de recherche expérimental à un framework stable et prêt pour la production. Cette version unifie l'ensemble du pipeline de post-entraînement — la séquence Supervised Fine-Tuning (SFT), Reward Modeling et alignement — sous une API standardisée et cohérente. Concrètement, les développeurs disposent désormais d'une interface en ligne de commande dédiée, d'un système de configuration unifié basé sur des fichiers YAML, et d'une suite élargie d'algorithmes d'alignement incluant DPO, GRPO, KTO et ORPO. Une simple commande comme trl sft --modelnameor_path meta-llama/Llama-3.1-8B suffit désormais à lancer un entraînement complet, là où il fallait auparavant écrire des centaines de lignes de code personnalisé. Cette standardisation change concrètement la donne pour les équipes d'ingénierie qui travaillent sur des modèles de langage. Le post-entraînement — cette phase où l'on affine un modèle de base pour qu'il suive des instructions, adopte un ton particulier ou développe des capacités de raisonnement — était jusqu'ici souvent traité comme un art obscur, réservé aux équipes de recherche disposant de ressources importantes. TRL v1.0 démocratise ce processus : les classes de configuration comme SFTConfig ou GRPOConfig héritent directement de transformers.TrainingArguments, assurant une compatibilité totale avec l'écosystème Hugging Face. L'intégration native avec Accelerate permet de passer d'un GPU local à un cluster multi-nœuds en FSDP ou DeepSpeed sans modifier le code. Le support natif de LoRA et QLoRA via PEFT rend le fine-tuning de modèles à plusieurs milliards de paramètres accessible sur du matériel grand public ou d'entreprise de gamme intermédiaire. TRL existe depuis plusieurs années comme référence dans la communauté de recherche sur l'alignement des LLMs, mais son API fragmentée et son manque de stabilité en freinaient l'adoption industrielle. La version 1.0 intervient dans un contexte où le post-entraînement est devenu un avantage compétitif central : des modèles comme DeepSeek-R1 ou les versions récentes de LLaMA ont démontré que la phase d'alignement — notamment via GRPO, qui élimine le modèle critique pour réduire l'empreinte mémoire — peut transformer radicalement les capacités d'un modèle de base. En unifiant PPO, DPO, GRPO, KTO et ORPO dans un seul framework documenté, Hugging Face positionne TRL comme l'infrastructure standard du fine-tuning open source, face aux solutions propriétaires des grands laboratoires. Les prochaines étapes devraient inclure une intégration plus poussée avec le Hub Hugging Face pour la gestion des expériences et des artefacts d'entraînement.

UETRL v1.0, publié par Hugging Face — entreprise d'origine française — renforce la capacité des équipes européennes à développer et aligner des LLMs en open source, sans dépendre des pipelines propriétaires des grands laboratoires américains.

LLMsOutil
1 source
BlueSky lance Attie : une IA pour créer ton propre réseau social
140Le Big Data 

BlueSky lance Attie : une IA pour créer ton propre réseau social

Le 28 mars 2026, lors de la conférence Atmosphere, Jay Graber (PDG de Bluesky) et Paul Frazee (CTO) ont dévoilé Attie, un outil d'intelligence artificielle permettant à n'importe quel utilisateur de construire son propre réseau social personnalisé en langage naturel. Concrètement, il suffit de décrire en une phrase le type de contenu souhaité — par exemple des articles sur le folklore celtique, la mythologie et la musique traditionnelle — pour qu'Attie génère automatiquement un fil d'actualité sur mesure. L'outil repose sur la technologie Claude d'Anthropic et s'appuie sur le protocole AT, la base open source qui sous-tend l'infrastructure de Bluesky. Il se présente comme une application sociale agentique : l'IA ne se contente pas de produire du contenu, elle organise l'information selon les intentions explicites de l'utilisateur, sans ligne de code requise. L'enjeu est direct : Attie s'attaque frontalement au modèle dominant des grandes plateformes comme X ou Instagram, où des algorithmes opaques dictent ce que chacun voit, en optimisant pour l'engagement plutôt que pour la pertinence. Jay Graber pointe une explosion de contenus peu fiables et un manque de transparence structurel dans ces systèmes. Avec Attie, l'utilisateur reprend la main — il choisit ses sources, définit ses priorités, et n'est plus spectateur passif d'un flux conçu pour l'accrocher. Pour les professionnels de l'information, les créateurs de contenu et les communautés de niche, cela représente une rupture concrète : accéder à un espace d'information réellement calibré sur ses besoins, sans intermédiaire algorithmique imposé. Bluesky s'est imposé comme l'alternative décentralisée la plus sérieuse à X depuis le rachat de Twitter par Elon Musk, attirant plusieurs millions d'utilisateurs en quête d'une plateforme plus ouverte. Le protocole AT, sur lequel Attie est construit, est conçu pour être entièrement transparent et interopérable — ce qui distingue fondamentalement l'approche de celle des silos fermés que sont Meta ou X. Attie s'inscrit dans une tendance plus large des interfaces en langage naturel qui éliminent la barrière technique entre l'utilisateur et la personnalisation avancée, là où il fallait auparavant des mois de développement. La vraie question reste celle du passage à l'échelle : si l'outil reste une curiosité pour early adopters technophiles, l'impact sera limité. Mais si Bluesky parvient à démocratiser cette approche, les réseaux sociaux pourraient évoluer vers des architectures modulaires où chaque utilisateur devient, en quelques mots, l'éditeur de son propre média.

UEConstruit sur un protocole ouvert et interopérable, Attie offre aux utilisateurs européens une alternative concrète aux algorithmes opaques des plateformes américaines, en cohérence avec les objectifs européens de transparence algorithmique et de souveraineté numérique.

OutilsOutil
1 source
Google dévoile la révolution TurboQuant sans partager le code : un développeur seul le recrée en 7 jours grâce à l’IA
141Frandroid 

Google dévoile la révolution TurboQuant sans partager le code : un développeur seul le recrée en 7 jours grâce à l’IA

Google a présenté TurboQuant, une méthode de quantification avancée capable de réduire drastiquement l'empreinte mémoire des grands modèles de langage, sans dévoiler le code source. Face à cette rétention, un développeur indépendant a décidé d'agir seul : en sept jours seulement, en s'appuyant sur l'assistant IA Claude d'Anthropic, il a réimplémenté la technique à partir des seules informations disponibles dans l'article scientifique de Google. Le résultat est fonctionnel et permet de faire tourner des modèles de plusieurs dizaines de milliards de paramètres sur un MacBook Air standard. Cet exploit illustre un changement de paradigme majeur dans l'accès à l'IA. Jusqu'ici, les modèles les plus puissants exigeaient des GPU professionnels avec des dizaines de gigaoctets de VRAM, réservant leur usage aux entreprises ou aux chercheurs disposant d'infrastructure lourde. TurboQuant contourne cette contrainte en compressant les poids des modèles avec une précision inédite, préservant les performances tout en divisant l'occupation mémoire. Si la méthode se généralise, elle pourrait démocratiser l'inférence locale pour des millions d'utilisateurs. La situation s'inscrit dans une tension croissante entre les laboratoires qui publient des recherches sans ouvrir le code — pratique de plus en plus courante chez Google, OpenAI ou Anthropic — et une communauté open source réactive, capable de combler les lacunes à vitesse record. Ce cas rappelle celui de llama.cpp ou d'autres réimplémentations communautaires qui ont précédé des publications officielles. La prochaine étape sera d'intégrer cette technique dans des outils grand public comme Ollama ou LM Studio, accélérant encore la course vers l'IA locale accessible à tous.

LLMsPaper
1 source
Le nouveau modèle affiné Fin Apex 1.0 d'Intercom surpasse GPT-5.4 et Claude Sonnet 4.6 en support client
142VentureBeat AI 

Le nouveau modèle affiné Fin Apex 1.0 d'Intercom surpasse GPT-5.4 et Claude Sonnet 4.6 en support client

Intercom, la plateforme de service client fondée il y a quinze ans, a annoncé jeudi le lancement de Fin Apex 1.0, un modèle d'intelligence artificielle développé en interne et spécifiquement conçu pour la résolution de demandes clients. Selon les benchmarks partagés avec VentureBeat, ce modèle atteint un taux de résolution de 73,1 % — la proportion de problèmes résolus sans intervention humaine — contre 71,1 % pour GPT-5.4 et Claude Opus 4.5, et 69,6 % pour Claude Sonnet 4.6. Fin Apex répond en 3,7 secondes, soit 0,6 seconde plus vite que ses concurrents directs, affiche une réduction de 65 % des hallucinations par rapport à Claude Sonnet 4.6, et coûte environ cinq fois moins cher que les grands modèles frontières utilisés directement. Il est inclus dans les plans tarifaires existants d'Intercom, basés sur un modèle « par résolution ». Le modèle alimente déjà Fin, l'agent IA d'Intercom qui traite plus de deux millions de conversations clients par semaine. Un écart de 2 points de pourcentage peut sembler anecdotique, mais pour les entreprises gérant des millions d'interactions, l'impact financier est considérable. « Si vous gérez de grandes opérations de service à l'échelle, avec 10 millions de clients ou un milliard de dollars de chiffre d'affaires, un delta de 2 ou 3 % représente une quantité énorme de clients, d'interactions et de revenus », a déclaré le PDG Eoghan McCabe. Au-delà des chiffres, Fin Apex illustre une stratégie de plus en plus viable pour les éditeurs de logiciels verticaux : plutôt que de se reposer sur des API génériques de OpenAI ou Anthropic, ils peuvent construire des modèles spécialisés plus rapides, moins coûteux et plus précis dans leur domaine — en capitalisant sur leurs données propriétaires accumulées au fil des années. Ce lancement s'inscrit dans une tendance de fond : le post-entraînement devient le véritable champ de bataille de l'IA, la pré-formation des grands modèles étant désormais considérée comme une commodité. Intercom a affiné son modèle de base — un modèle open-weights dont la société refuse de révéler l'identité « pour des raisons concurrentielles » — avec des années de données de service client issues de Fin, en intégrant des systèmes d'apprentissage par renforcement ancrés sur des résolutions réelles. Cette opacité partielle rappelle la controverse qu'a connue Cursor, accusé d'avoir dissimulé que son modèle Composer 2 était basé sur un modèle open source affiné. Intercom reconnaît utiliser une base open-weights, mais refuse d'en préciser la source, une posture qui soulèvera sans doute des questions sur la réalité de sa « transparence ». La société indique vouloir changer de modèle de base à l'avenir, ce qui suggère que Fin Apex est moins un modèle figé qu'une infrastructure d'optimisation continue — et potentiellement un modèle que d'autres plateformes verticales pourraient chercher à reproduire.

UELes entreprises françaises et européennes utilisant Intercom pour leur support client bénéficient directement des gains de résolution automatique et de la réduction des coûts apportés par Fin Apex 1.0.

LLMsOpinion
1 source
NVIDIA GTC : l'Omniverse au service de l'IA physique
143NVIDIA AI Blog 

NVIDIA GTC : l'Omniverse au service de l'IA physique

Lors de la conférence GTC la semaine dernière, NVIDIA a présenté plusieurs avancées majeures pour ce que l'entreprise appelle l'« ère de l'IA physique » — une phase où robots, véhicules autonomes et usines intelligentes passent de déploiements isolés à des systèmes industriels à grande échelle. Au cœur de ces annonces figurent trois nouveaux modèles de frontière : Cosmos 3 pour la modélisation du monde réel, Isaac GR00T N1.7 dédié aux compétences des robots humanoïdes, et Alpamayo 1.5 pour la conduite autonome. NVIDIA a également lancé deux blueprints open source : le Physical AI Data Factory Blueprint, destiné à produire des données d'entraînement à partir de simulations, et l'Omniverse DSX Blueprint, une architecture de référence pour créer des jumeaux numériques d'usines d'IA complètes. Des partenaires comme FieldAI, Hexagon Robotics, Skild AI et Teradyne Robotics utilisent déjà ces outils, tandis que Microsoft Azure et Nebius sont les premiers clouds à proposer le blueprint en mode clé en main. L'enjeu central de ces annonces est de résoudre un problème structurel de l'IA physique : les données réelles ne suffisent plus. Le monde réel est imprévisible, les cas limites sont innombrables, et les pipelines de collecte restent fragmentés. NVIDIA positionne donc la puissance de calcul elle-même comme une fabrique de données — transformant des scènes simulées en datasets massifs, diversifiés et hautement qualifiés. Pour les développeurs de robots et de véhicules autonomes, cela signifie pouvoir entraîner des modèles sur des millions de situations synthétiques sans dépendre d'une collecte terrain coûteuse. Parallèlement, l'Omniverse DSX Blueprint permet aux opérateurs d'usines d'IA de simuler thermiques, réseaux électriques et charges réseau avant même d'installer le premier serveur — réduisant les délais et les dépassements de budget sur des infrastructures qui coûtent des centaines de millions de dollars. Ces développements s'inscrivent dans une stratégie plus large de NVIDIA pour imposer son écosystème comme couche universelle de l'IA industrielle. Le format OpenUSD — langage de description de scènes 3D initialement développé par Pixar — joue un rôle clé en permettant de convertir des fichiers CAO d'ingénierie en environnements de simulation directement exploitables. Des frameworks open source comme OpenClaw viennent compléter la pile en orchestrant des agents autonomes capables de gérer des workflows complexes sur des machines dédiées. Avec l'intégration de partenaires cloud majeurs et d'une dizaine d'acteurs industriels, NVIDIA consolide une position de plateforme incontournable à un moment où la compétition pour contrôler l'infrastructure de l'IA physique — robots, voitures, usines — s'intensifie face à des concurrents comme Google DeepMind, Boston Dynamics et les constructeurs automobiles investissant massivement dans leurs propres systèmes embarqués.

UELes industriels et startups européens en robotique ou véhicules autonomes peuvent accéder via Microsoft Azure aux blueprints open source NVIDIA pour entraîner des modèles sur données synthétiques, réduisant leur dépendance coûteuse à la collecte terrain.

InfrastructureOpinion
1 source
Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir
144Le Big Data 

Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir

Mozilla a lancé en mars 2026 un projet open source baptisé cq, conçu pour créer une mémoire collective partagée entre agents IA. Inspiré du modèle de Stack Overflow, cq permet à chaque agent, avant de traiter un problème, d'interroger un espace commun appelé « cq commons » pour vérifier si une solution existe déjà. Les connaissances y sont stockées sous forme de « knowledge units » — des blocs décrivant un problème, sa solution et son contexte technique. Un système de confiance dynamique complète le dispositif : plus une solution est utilisée avec succès par différents agents, plus sa crédibilité augmente. Un proof of concept est d'ores et déjà disponible, avec des plugins pour Claude Code et OpenCode. L'enjeu dépasse le simple gain d'efficacité opérationnelle. Aujourd'hui, des millions d'agents IA résolvent les mêmes problèmes de manière indépendante, en consommant à chaque fois des tokens — ce qui se traduit par des coûts financiers et énergétiques significatifs. En mutualisant les solutions, cq pourrait réduire ces redondances à grande échelle pour les entreprises qui déploient des agents en continu. Plus profondément, le projet introduit un déplacement potentiel de la valeur dans l'écosystème IA : jusqu'ici, la puissance brute des modèles constituait l'avantage concurrentiel principal ; avec des systèmes comme cq, c'est l'accès à une base de connaissances partagée, fiable et enrichie en permanence qui pourrait devenir déterminant. Ce projet s'inscrit dans un contexte révélateur : le déclin de Stack Overflow, longtemps référence du partage de savoir technique. La plateforme est passée de 200 000 questions mensuelles à son apogée en 2014 à seulement 3 862 en décembre 2025, retombant à son niveau de lancement. Les développeurs interrogent désormais directement des IA, qui produisent des réponses instantanées mais éphémères — sans mémoire collective, sans capitalisation. Chaque erreur peut être résolue des milliers de fois sans jamais être retenue. Mozilla tente précisément de combler ce vide structurel en transposant la logique communautaire de Stack Overflow au monde des agents autonomes. Si cq parvient à s'imposer comme standard, il pourrait recomposer la manière dont l'intelligence artificielle apprend et progresse — non plus par modèle isolé, mais par accumulation collective d'expériences validées.

UELes entreprises françaises et européennes déployant des agents IA en continu pourraient réduire leurs coûts en tokens grâce à cette mutualisation open source, mais aucun impact réglementaire ou institutionnel direct.

OutilsOutil
1 source
Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA
145Numerama 

Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA

Des chercheurs de Snyk ont analysé une attaque contre la bibliothèque Python LiteLLM, utilisée par des millions de développeurs IA. Le groupe TeamPCP a préparé l'opération cinq jours à l'avance avant de compromettre le projet pendant trois heures. L'attaque illustre les risques pesant sur les dépendances open source critiques dans l'écosystème IA.

UELes développeurs européens utilisant LiteLLM dans leurs pipelines IA doivent auditer leurs dépendances et mettre à jour vers une version saine de la bibliothèque.

OutilsActu
1 source
Iliad fait de l’IA et du cloud ses nouveaux relais de croissance
146ZDNET FR 

Iliad fait de l’IA et du cloud ses nouveaux relais de croissance

Le groupe Iliad, maison-mère de Free, annonce un pivot stratégique majeur vers l'intelligence artificielle et le cloud pour compenser un ralentissement de sa croissance traditionnelle. Face à un recrutement d'abonnés qui s'essouffle et à l'acquisition de SFR qui n'aboutit pas, Xavier Niel mise sur une couverture complète de la chaîne de valeur IA — des infrastructures datacenters jusqu'au développement de modèles open source. Ce repositionnement marque un tournant pour un groupe historiquement centré sur la connectivité à bas coût. En s'attaquant à l'ensemble de l'écosystème IA, Iliad cherche à diversifier ses revenus et à se positionner comme acteur souverain dans un secteur en pleine explosion, face aux géants américains et aux ambitions chinoises. Iliad rejoint ainsi une vague d'opérateurs télécoms européens qui cherchent à transformer leurs infrastructures réseau en tremplins vers le cloud et l'IA, dans un contexte de saturation des marchés mobiles traditionnels.

UELe groupe Iliad (Free) se positionne comme acteur souverain français dans l'IA et le cloud, contribuant directement à l'effort d'indépendance technologique européenne face aux géants américains.

BusinessOpinion
1 source
Nvidia Earth-2 : l’IA qui va révolutionner la prédiction météo dans le monde entier
147Le Big Data 

Nvidia Earth-2 : l’IA qui va révolutionner la prédiction météo dans le monde entier

En janvier 2026, Nvidia a lancé Earth-2, une plateforme de jumeau numérique de la Terre utilisant l'IA pour simuler le climat en temps réel, jusqu'à 1000 fois plus rapide que les supercalculateurs traditionnels. Les modèles agrègent des données de satellites, radars et stations météo pour générer des prévisions globales jusqu'à 14 jours en quelques secondes, sur une simple machine équipée de deux GPU RTX Pro 6000. Développée en collaboration avec la NOAA et MITRE, la plateforme sera open source pour démocratiser l'accès aux prévisions avancées, notamment dans les pays en développement.

UELes agences météorologiques européennes comme Météo-France ou l'ECMWF pourraient adopter cette plateforme open source pour améliorer leurs prévisions climatiques à moindre coût infrastructurel.

OutilsActu
1 source
NemoClaw, analyse et prise en main de la « prison » pour sécuriser les agents IA
148Next INpact 

NemoClaw, analyse et prise en main de la « prison » pour sécuriser les agents IA

NVIDIA a annoncé NemoClaw lors de la GTC, un projet open source en version alpha conçu pour sécuriser les agents IA, notamment OpenClaw. NemoClaw propose un environnement avec des garde-fous de confidentialité et de sécurité, donnant aux utilisateurs le contrôle sur le comportement de leurs agents et la gestion de leurs données. OpenClaw, anciennement Clawdbot/Moltbot, est un agent IA open source développé par Peter Steinberger (désormais chez OpenAI) permettant d'accéder à des données personnelles pour agir comme assistant virtuel.

OutilsOpinion
1 source
Pour Jensen Huang, la demande en puces IA va encore doubler d’ici 2027
149Next INpact 

Pour Jensen Huang, la demande en puces IA va encore doubler d’ici 2027

Jensen Huang, CEO de NVIDIA, a annoncé lors de la GTC que la demande en puces IA pourrait générer plus de 1 000 milliards de dollars de chiffre d'affaires pour l'entreprise entre 2025 et 2027, soit le double des 500 milliards prévus en octobre 2024. Cette croissance est portée par l'essor de l'inférence et des systèmes IA complets, incluant les GPU Blackwell/Rubin et les CPU Vera. NVIDIA a par ailleurs lancé la Nemotron Coalition pour soutenir l'open source, avec Mistral comme premier partenaire.

UEMistral, entreprise française, est désignée premier partenaire de la Nemotron Coalition lancée par NVIDIA, renforçant son ancrage dans l'écosystème open source mondial de l'IA.

BusinessActu
1 source
Accompagner l'IA agentique au-delà de ses premiers pas
150MIT Technology Review 

Accompagner l'IA agentique au-delà de ses premiers pas

L'IA générative a franchi un cap majeur entre décembre 2025 et janvier 2026 avec l'arrivée d'outils sans code et d'agents autonomes open source comme OpenClaw, passant d'un rythme conversationnel à une exécution autonome à grande vitesse. Cette évolution pose un défi de gouvernance critique : les agents autonomes opèrent désormais avec peu d'humains dans la boucle, mais la responsabilité légale reste entièrement celle des entreprises — notamment avec la loi californienne AB 316 (entrée en vigueur le 1er janvier 2026) qui supprime l'excuse "c'est l'IA qui a agi". Sans garde-fous temps réel intégrés dans le code, les agents peuvent dériver au-delà de leurs permissions et faire peser des risques majeurs sur les systèmes d'entreprise.

UELes entreprises européennes font face aux mêmes enjeux de gouvernance des agents IA, directement encadrés par le Règlement IA européen (AI Act) qui impose une supervision humaine pour les systèmes à haut risque.

SécuritéOpinion
1 source