Aller au contenu principal
Andrej Karpathy publie « Autorecherche », un outil Python de 630 lignes permettant aux agents IA de mener des expériences de ML en autonomie sur un seul GPU
OutilsMarkTechPost8sem

Andrej Karpathy publie « Autorecherche », un outil Python de 630 lignes permettant aux agents IA de mener des expériences de ML en autonomie sur un seul GPU

Résumé IASource uniqueImpact UE
Source originale ↗·

Andrej Karpathy a publié autoresearch, un outil Python minimaliste de 630 lignes permettant à des agents IA de mener des expériences de machine learning en totale autonomie sur un seul GPU NVIDIA. L'agent lit des instructions en Markdown, modifie le code d'entraînement (architecture, optimiseurs, hyperparamètres), exécute des runs de 5 minutes et ne conserve les changements que si le score bits-per-byte (BPB) s'améliore — Karpathy a ainsi démontré une réduction de la perte de validation de 1,0 à 0,97 BPB. Le PDG de Shopify, Tobi Lutke, a rapidement adapté le framework pour un projet interne, obtenant une amélioration de 19 % des scores de validation, avec un petit modèle optimisé par l'agent surpassant un modèle plus grand configuré manuellement.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes
1MarkTechPost 

NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes

NVIDIA a mis en open source OpenShell, un environnement d'exécution sécurisé conçu pour les agents IA autonomes, publié sous licence Apache 2.0. Il offre un sandboxing au niveau noyau, un moteur de politiques granulaires (contrôle par binaire, endpoint et méthode API) avec journalisation complète, ainsi qu'un routage d'inférence privé pour éviter les fuites de données. OpenShell est agnostique aux frameworks — compatible avec Claude Code, Codex, LangChain et autres — et s'intègre comme une couche de sécurité sans réécriture du code agent.

UEOpenShell peut être adopté par les développeurs et entreprises européens pour sécuriser leurs agents IA autonomes, en répondant aux exigences de traçabilité et de contrôle imposées par l'AI Act européen.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
2Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch
3MarkTechPost 

RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch

RightNow AI a publié AutoKernel, un framework open-source qui automatise l'optimisation des kernels GPU pour n'importe quel modèle PyTorch. Le principe est simple : soumettre un modèle avant de dormir et retrouver au matin des kernels Triton plus rapides, sans avoir à maîtriser la programmation GPU de bas niveau. Le système repose sur une boucle agentique autonome : un agent LLM modifie un fichier kernel.py, un banc de test vérifie la correction puis mesure le débit, et le résultat détermine si la modification est conservée ou annulée via un git reset. Chaque itération dure environ 90 secondes, ce qui permet de réaliser 300 à 400 expériences lors d'une session de 10 heures. L'agent suit un manuel d'optimisation en six niveaux encodé dans un document de 909 lignes, couvrant le réglage des tailles de blocs, les patterns d'accès mémoire, les optimisations de calcul comme TF32, les techniques avancées comme split-K, et les stratégies spécifiques aux architectures Hopper et Ampere de NVIDIA. L'enjeu est considérable pour l'industrie du machine learning. Optimiser un kernel GPU de haute performance exige de raisonner simultanément sur l'intensité arithmétique, la coalescence mémoire, la pression sur les registres, la synchronisation au niveau warp et la sélection des instructions tensor core, un ensemble de compétences qui prend des années à acquérir. Un seul kernel de multiplication matricielle performant peut représenter plus de 200 lignes de code CUDA ou Triton avec des dizaines de paramètres interdépendants. La suite de benchmarks KernelBench, qui évalue les grands modèles de langage sur 250 problèmes de kernels GPU, a montré que même les meilleurs modèles n'égalaient la baseline PyTorch que dans moins de 20 % des cas en génération directe. AutoKernel répond précisément à ce déficit en rendant cette expertise accessible sans spécialiste humain, ce qui pourrait accélérer significativement le développement et le déploiement de modèles d'IA. L'approche s'inspire directement du projet autoresearch d'Andrej Karpathy, dans lequel une boucle keep/revert appliquée à du code d'entraînement LLM avait permis de découvrir 20 optimisations en 700 expériences sur deux jours avec un seul GPU. AutoKernel transpose cette logique à l'espace des kernels, en substituant la loss de validation par un benchmark de correction et de débit comme fonction d'évaluation. La traçabilité est assurée par git, les résultats étant stockés dans un fichier TSV lisible directement par l'agent. Ce type de framework illustre une tendance plus large où les tâches d'ingénierie hautement spécialisées deviennent des cibles pour l'automatisation agentique, réduisant la dépendance aux rares experts en optimisation GPU à mesure que les architectures de modèles continuent d'évoluer.

💬 L'idée de laisser tourner une boucle agentique toute la nuit pour sortir des kernels Triton optimisés au matin, c'est exactement ce qu'on attendait depuis qu'on a vu Karpathy faire la même chose sur du code d'entraînement. La partie vraiment bien foutue, c'est le mécanisme d'évaluation : un benchmark de correction avant tout, et le git reset si ça régresse, ce qui évite de passer des heures à débugger des "optimisations" qui cassent tout. Pour les équipes sans expert CUDA dans les jambes, c'est une vraie bouffée d'air.

OutilsOutil
1 source
MiniMax publie MMX-CLI, une interface en ligne de commande pour agents IA avec accès natif aux médias et à la recherche
4MarkTechPost 

MiniMax publie MMX-CLI, une interface en ligne de commande pour agents IA avec accès natif aux médias et à la recherche

MiniMax, la startup chinoise d'intelligence artificielle connue pour ses modèles multimodaux, a lancé MMX-CLI, une interface en ligne de commande open source qui donne aux développeurs et aux agents IA un accès direct à l'ensemble de la plateforme MiniMax : génération de texte, d'images, de vidéos, de voix, de musique, d'analyse visuelle et de recherche web. L'outil, écrit en TypeScript avec le runtime Bun, s'organise en sept groupes de commandes, mmx text, mmx image, mmx video, mmx speech, mmx music, mmx vision et mmx search, couvrant des cas d'usage allant du chat multi-tour en streaming jusqu'à la synthèse musicale avec contrôle du tempo, du BPM, de la tonalité et des instruments. La commande mmx speech propose plus de 30 voix et accepte jusqu'à 10 000 caractères, tandis que mmx video s'appuie par défaut sur le modèle MiniMax-Hailuo-2.3 et permet de générer une vidéo à partir d'une image de départ via le flag --first-frame. L'enjeu principal est de simplifier radicalement l'intégration des capacités multimodales dans les workflows des agents IA. Aujourd'hui, des outils comme Cursor, Claude Code ou OpenCode sont puissants pour manipuler du texte et du code, mais n'ont pas de chemin natif pour générer des médias sans passer par des couches d'intégration supplémentaires, wrappers d'API, configuration serveur, gestion d'authentification séparée, ou protocoles comme le Model Context Protocol (MCP). MMX-CLI contourne tout cela : un agent peut invoquer une commande shell comme n'importe quel outil terminal, sans glue MCP. Pour les équipes qui automatisent des pipelines de création de contenu, de localisation audio ou de production vidéo, cela représente une réduction concrète du coût d'intégration et du temps de développement. Ce lancement s'inscrit dans une tendance plus large où les fournisseurs de modèles cherchent à devenir des plateformes complètes plutôt que de simples API de texte. MiniMax, qui a levé des centaines de millions de dollars et positionne son stack "omni-modal" face aux offres de Google, OpenAI et ElevenLabs, mise sur l'outillage développeur comme levier d'adoption. En exposant ses modèles via une CLI standardisée compatible avec les grands environnements de développement assistés par IA, la société cherche à s'ancrer dans les workflows quotidiens des ingénieurs avant que des concurrents ne comblent le même manque. La prochaine étape probable est une adoption croissante dans les pipelines d'automatisation, content factories, doublage automatique, génération de supports marketing, où la combinaison texte-image-vidéo-voix en une seule interface représente un avantage opérationnel réel.

💬 Pas de wrapper MCP, pas de config serveur, juste une commande shell pour avoir du texte, de la vidéo, de la voix, de la musique : sur le papier, c'est exactement le raccourci qu'il me manquait dans mes pipelines. Si tu automatises de la prod de contenu multimédia, l'intégration devient triviale du coup. La vraie question c'est la qualité des modèles MiniMax face à ElevenLabs ou Hailuo en conditions réelles.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour