Aller au contenu principal
RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch
OutilsMarkTechPost3h

RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch

1 source couvre ce sujet·Source originale ↗·

RightNow AI a publié AutoKernel, un framework open-source qui automatise l'optimisation des kernels GPU pour n'importe quel modèle PyTorch. Le principe est simple : soumettre un modèle avant de dormir et retrouver au matin des kernels Triton plus rapides, sans avoir à maîtriser la programmation GPU de bas niveau. Le système repose sur une boucle agentique autonome : un agent LLM modifie un fichier kernel.py, un banc de test vérifie la correction puis mesure le débit, et le résultat détermine si la modification est conservée ou annulée via un git reset. Chaque itération dure environ 90 secondes, ce qui permet de réaliser 300 à 400 expériences lors d'une session de 10 heures. L'agent suit un manuel d'optimisation en six niveaux encodé dans un document de 909 lignes, couvrant le réglage des tailles de blocs, les patterns d'accès mémoire, les optimisations de calcul comme TF32, les techniques avancées comme split-K, et les stratégies spécifiques aux architectures Hopper et Ampere de NVIDIA.

L'enjeu est considérable pour l'industrie du machine learning. Optimiser un kernel GPU de haute performance exige de raisonner simultanément sur l'intensité arithmétique, la coalescence mémoire, la pression sur les registres, la synchronisation au niveau warp et la sélection des instructions tensor core, un ensemble de compétences qui prend des années à acquérir. Un seul kernel de multiplication matricielle performant peut représenter plus de 200 lignes de code CUDA ou Triton avec des dizaines de paramètres interdépendants. La suite de benchmarks KernelBench, qui évalue les grands modèles de langage sur 250 problèmes de kernels GPU, a montré que même les meilleurs modèles n'égalaient la baseline PyTorch que dans moins de 20 % des cas en génération directe. AutoKernel répond précisément à ce déficit en rendant cette expertise accessible sans spécialiste humain, ce qui pourrait accélérer significativement le développement et le déploiement de modèles d'IA.

L'approche s'inspire directement du projet autoresearch d'Andrej Karpathy, dans lequel une boucle keep/revert appliquée à du code d'entraînement LLM avait permis de découvrir 20 optimisations en 700 expériences sur deux jours avec un seul GPU. AutoKernel transpose cette logique à l'espace des kernels, en substituant la loss de validation par un benchmark de correction et de débit comme fonction d'évaluation. La traçabilité est assurée par git, les résultats étant stockés dans un fichier TSV lisible directement par l'agent. Ce type de framework illustre une tendance plus large où les tâches d'ingénierie hautement spécialisées deviennent des cibles pour l'automatisation agentique, réduisant la dépendance aux rares experts en optimisation GPU à mesure que les architectures de modèles continuent d'évoluer.

💬 Le point de vue du dev

L'idée de laisser tourner une boucle agentique toute la nuit pour sortir des kernels Triton optimisés au matin, c'est exactement ce qu'on attendait depuis qu'on a vu Karpathy faire la même chose sur du code d'entraînement. La partie vraiment bien foutue, c'est le mécanisme d'évaluation : un benchmark de correction avant tout, et le git reset si ça régresse, ce qui évite de passer des heures à débugger des "optimisations" qui cassent tout. Pour les équipes sans expert CUDA dans les jambes, c'est une vraie bouffée d'air.

À lire aussi

L'IA transforme les décisions de production des petits vendeurs en ligne
1MIT Technology Review 

L'IA transforme les décisions de production des petits vendeurs en ligne

Mike McClary, entrepreneur de 51 ans basé dans le salon de sa maison en Illinois, a relancé en 2025 une lampe torche qu'il commercialisait sous la marque Guardian LTE, un produit robuste qu'il avait arrêté de vendre en 2017 mais pour lequel les clients continuaient de le solliciter par e-mail. Plutôt que de parcourir des catalogues fournisseurs pendant des semaines, il a ouvert Accio, un outil d'approvisionnement alimenté par l'IA intégré à Alibaba.com. Il a décrit à l'outil le design original, le coût de fabrication et la marge de la lampe. Accio a alors proposé plusieurs modifications, réduire la taille, baisser légèrement la luminosité, passer aux piles, et a identifié un fabricant à Ningbo, en Chine, capable de ramener le coût unitaire de 17 dollars à environ 2,50 dollars. En moins d'un mois, la nouvelle version du Guardian était en vente sur Amazon et sur le site de sa marque. Accio, lancé en 2024, a dépassé les 10 millions d'utilisateurs actifs mensuels en mars 2026, soit environ un utilisateur d'Alibaba sur cinq. Pour les petits vendeurs en ligne américains, trouver quoi vendre et où le faire fabriquer était jusqu'ici un processus lent et laborieux, pouvant s'étendre sur plusieurs mois : parcourir des annonces, comparer les capacités des fournisseurs, demander des échantillons, négocier les délais et les quantités minimales de commande. Des outils comme Accio compressent cette phase en quelques heures. L'interface ressemble à celle de ChatGPT ou Claude, une zone de texte, des modes "rapide" et "réflexion", mais les réponses intègrent des graphiques, des liens vers des fournisseurs et des questions de clarification pour affiner le besoin. L'outil ne remplace pas entièrement la négociation humaine : les vendeurs doivent toujours contacter les fournisseurs eux-mêmes, mais ils arrivent à cette étape avec une sélection déjà qualifiée. Pour des tâches comme l'analyse de sourcing, l'outil "écrase" les assistants généralistes comme ChatGPT, selon Richard Kostick, PDG de la marque beauté 10to1. Alibaba.com, le site historique du groupe listant les usines chinoises ouvertes aux commandes en gros, a bâti Accio sur plusieurs modèles frontière dont sa propre série Qwen, une famille de modèles open source populaire, et l'a entraîné sur 26 ans de données transactionnelles propriétaires et des millions de profils fournisseurs, selon Zhang Kuo, président d'Alibaba.com. Cette initiative s'inscrit dans une concurrence plus large pour capter les PME occidentales cherchant à diversifier leurs chaînes d'approvisionnement, notamment depuis la montée des tensions commerciales entre les États-Unis et la Chine. En automatisant la phase de recherche produit et de sourcing, Alibaba positionne l'IA comme infrastructure centrale du commerce transfrontalier de détail, réduisant la barrière d'entrée pour des entrepreneurs individuels qui n'avaient jusqu'ici ni le temps ni les ressources pour accéder efficacement à la manufacture asiatique.

UELes vendeurs en ligne et PME françaises qui s'approvisionnent via Alibaba.com peuvent potentiellement utiliser Accio, mais l'article ne documente aucune adoption européenne.

OutilsOutil
1 source
Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages
2InfoQ AI 

Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages

Un benchmark de 600 exécutions mené par Yusuke Endoh, contributeur au langage Ruby, a comparé les performances de Claude Code sur 13 langages de programmation différents, en lui faisant implémenter une version simplifiée de Git. Les résultats montrent que Ruby, Python et JavaScript sont les langages les plus rapides et les moins coûteux, avec un tarif compris entre 0,36 et 0,39 dollar par exécution. Les langages à typage statique, comme Java, Go ou Rust, se révèlent 1,4 à 2,6 fois plus chers. L'ajout de vérificateurs de types aux langages dynamiques entraîne quant à lui des ralentissements de 1,6 à 3,2 fois. Le jeu de données complet est disponible sur GitHub. Ces chiffres ont des implications directes pour les équipes qui utilisent des agents de codage alimentés par des LLM dans leurs workflows de développement. Le choix du langage influence non seulement la vitesse d'exécution des agents, mais aussi le coût opérationnel à grande échelle. Pour les entreprises qui déploient Claude Code massivement, la différence entre un langage dynamique et un langage statiquement typé peut représenter une multiplication substantielle des dépenses en tokens. Cette étude s'inscrit dans un contexte où l'utilisation des agents de codage autonomes se généralise rapidement dans l'industrie. Anthropic, l'entreprise derrière Claude, pousse activement Claude Code comme outil de développement agentic. La question de l'efficacité par langage devient stratégique alors que les équipes cherchent à optimiser leurs pipelines d'automatisation du code, et ce type de benchmark indépendant fournit des données concrètes pour guider ces choix techniques.

OutilsOutil
1 source
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
3VentureBeat AI 

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

L'ère des agents autonomes d'intelligence artificielle est désormais une réalité concrète. Trois outils dominent aujourd'hui ce nouveau paysage : OpenClaw (anciennement Moltbot et Clawdbot), qui a dépassé les 150 000 étoiles sur GitHub en quelques jours et s'installe directement sur les machines locales avec un accès profond au système ; Google Antigravity, un agent de codage intégré à un environnement de développement capable de mener un projet de l'idée à la production de façon interactive ; et Claude Cowork d'Anthropic, qui automatise des tâches juridiques et financières spécialisées comme la révision de contrats et le tri de NDA. Son lancement a d'ailleurs provoqué une chute notable des cours boursiers de plusieurs sociétés de legal-tech et de SaaS, un phénomène baptisé « SaaSpocalypse » par les analystes. Ces trois outils représentent trois modèles distincts d'autonomie : l'agent généraliste avec accès système, l'agent spécialiste du code, et l'agent expert métier. L'impact de ces technologies est déjà mesurable. Claude Cowork, en s'attaquant au droit et à la finance, menace directement des catégories entières de logiciels professionnels et de prestataires humains. La valeur de ces agents repose précisément sur l'étendue de l'accès qu'on leur accorde, fichiers, données sensibles, systèmes critiques, ce qui démultiplie leur efficacité mais aussi leur potentiel de nuisance. Un agent fiscal pourrait manquer des opportunités d'économies importantes, ou pire, intégrer des déductions illégales. Un agent de code pourrait injecter des failles silencieuses dans une infrastructure entière. La question centrale n'est plus technique mais systémique : jusqu'où faire confiance à des entités comme Anthropic ou Google pour que leurs agents ne causent pas de préjudice, ne fuient pas des données ou ne favorisent pas certains acteurs de façon illicite ? Ce virage agentic s'inscrit dans une accélération amorcée avec ChatGPT fin 2022, mais qui prend aujourd'hui une dimension inédite avec des agents capables d'agir, pas seulement de répondre. OpenClaw complique davantage l'équation en étant open source : sans autorité centrale de gouvernance, le contrôle des usages devient pratiquement impossible. Face à ce chaos organisé, plusieurs conditions apparaissent indispensables pour tirer parti de ces outils sans en subir les effets négatifs : journalisation systématique de chaque action de l'agent, validation humaine sur les décisions critiques, et surtout l'établissement d'une ontologie partagée entre systèmes hétérogènes pour définir un cadre commun de comportement. Combinés à des mécanismes d'identité distribuée et de confiance mutuelle entre agents, ces garde-fous pourraient permettre à l'écosystème agentic de tenir ses promesses sans déclencher la panique que redoutent les observateurs les plus prudents.

UELa disruption des marchés legal-tech et SaaS décrite menace des entreprises européennes opérant dans ces secteurs, dans un vide réglementaire concernant les agents autonomes.

💬 La SaaSpocalypse, c'est pas un buzzword de journaliste en manque d'inspiration, c'est ce qui arrive quand un agent fait en 30 secondes ce pour quoi une boîte facturait 300€ par mois. Ce qui me préoccupe vraiment, c'est OpenClaw : open source sans gouvernance centrale, le contrôle des usages devient une blague. Les logs et la validation humaine, bonne idée sur le papier, mais ça n'empêchera pas le premier incident sérieux.

OutilsOutil
1 source
L'App Store d'Apple enregistre 84 % de nouvelles apps en plus ce trimestre : l'effet du Vibe Coding ?
4The Information AI 

L'App Store d'Apple enregistre 84 % de nouvelles apps en plus ce trimestre : l'effet du Vibe Coding ?

L'App Store d'Apple a enregistré une hausse spectaculaire de 84 % du nombre de nouvelles applications publiées au premier trimestre 2026, atteignant 235 800 apps contre la même période un an plus tôt, selon les données de la société d'analyse Sensor Tower. Cette accélération s'inscrit dans un retournement de tendance amorcé en 2025, année où les nouvelles applications avaient déjà bondi de 30 % pour approcher les 600 000 sur l'ensemble de l'année. Ce rebond contraste avec une décennie de déclin : entre 2016 et 2024, le nombre de nouvelles apps avait chuté de 48 %. Le principal facteur avancé pour expliquer cette explosion est l'essor fulgurant des outils de "vibe coding", ces assistants de programmation propulsés par l'intelligence artificielle qui permettent à des non-développeurs de créer des applications fonctionnelles en quelques heures. Claude Code d'Anthropic, lancé en préversion limitée en février 2025 puis disponible plus largement dès mai, figure parmi les outils les plus emblématiques de cette vague. OpenAI a suivi avec Codex, présenté en préversion en mai 2025 et déployé plus largement en octobre. Ces outils abaissent drastiquement la barrière technique à l'entrée, ouvrant la création d'applications à des millions de personnes sans formation en développement logiciel. Ce retournement intervient après des années de consolidation du marché mobile, où les grands éditeurs dominaient et où les développeurs indépendants peinaient à se faire une place. L'arrivée des outils d'IA générative appliqués au code redistribue les cartes : particuliers, startups et entreprises sans équipes techniques peuvent désormais prototyper et publier rapidement. Si la tendance se confirme, elle pourrait redessiner la dynamique concurrentielle de l'App Store, multiplier les niches d'applications hyper-spécialisées, et relancer un débat sur la qualité et la modération d'un catalogue qui pourrait gonfler à une vitesse inédite.

UELes développeurs et entrepreneurs français peuvent tirer parti des outils de vibe coding pour publier des applications, mais les données Sensor Tower citées concernent principalement le marché américain sans mesure spécifique à l'Europe.

💬 84 % de nouvelles apps en un trimestre, c'est pas rien. Le vibe coding n'est pas une lubie de devs qui veulent déléguer le sale boulot, c'est vraiment en train de déverrouiller un marché que je pensais condamné au rachat progressif par les GAFA. La question qui me reste : parmi ces 235 000 apps, combien tiendront six mois ?

OutilsOutil
1 source