Aller au contenu principal
L'IA transforme les décisions de production des petits vendeurs en ligne
OutilsMIT Technology Review2h

L'IA transforme les décisions de production des petits vendeurs en ligne

1 source couvre ce sujet·Source originale ↗·

Mike McClary, entrepreneur de 51 ans basé dans le salon de sa maison en Illinois, a relancé en 2025 une lampe torche qu'il commercialisait sous la marque Guardian LTE, un produit robuste qu'il avait arrêté de vendre en 2017 mais pour lequel les clients continuaient de le solliciter par e-mail. Plutôt que de parcourir des catalogues fournisseurs pendant des semaines, il a ouvert Accio, un outil d'approvisionnement alimenté par l'IA intégré à Alibaba.com. Il a décrit à l'outil le design original, le coût de fabrication et la marge de la lampe. Accio a alors proposé plusieurs modifications, réduire la taille, baisser légèrement la luminosité, passer aux piles, et a identifié un fabricant à Ningbo, en Chine, capable de ramener le coût unitaire de 17 dollars à environ 2,50 dollars. En moins d'un mois, la nouvelle version du Guardian était en vente sur Amazon et sur le site de sa marque. Accio, lancé en 2024, a dépassé les 10 millions d'utilisateurs actifs mensuels en mars 2026, soit environ un utilisateur d'Alibaba sur cinq.

Pour les petits vendeurs en ligne américains, trouver quoi vendre et où le faire fabriquer était jusqu'ici un processus lent et laborieux, pouvant s'étendre sur plusieurs mois : parcourir des annonces, comparer les capacités des fournisseurs, demander des échantillons, négocier les délais et les quantités minimales de commande. Des outils comme Accio compressent cette phase en quelques heures. L'interface ressemble à celle de ChatGPT ou Claude, une zone de texte, des modes "rapide" et "réflexion", mais les réponses intègrent des graphiques, des liens vers des fournisseurs et des questions de clarification pour affiner le besoin. L'outil ne remplace pas entièrement la négociation humaine : les vendeurs doivent toujours contacter les fournisseurs eux-mêmes, mais ils arrivent à cette étape avec une sélection déjà qualifiée. Pour des tâches comme l'analyse de sourcing, l'outil "écrase" les assistants généralistes comme ChatGPT, selon Richard Kostick, PDG de la marque beauté 10to1.

Alibaba.com, le site historique du groupe listant les usines chinoises ouvertes aux commandes en gros, a bâti Accio sur plusieurs modèles frontière dont sa propre série Qwen, une famille de modèles open source populaire, et l'a entraîné sur 26 ans de données transactionnelles propriétaires et des millions de profils fournisseurs, selon Zhang Kuo, président d'Alibaba.com. Cette initiative s'inscrit dans une concurrence plus large pour capter les PME occidentales cherchant à diversifier leurs chaînes d'approvisionnement, notamment depuis la montée des tensions commerciales entre les États-Unis et la Chine. En automatisant la phase de recherche produit et de sourcing, Alibaba positionne l'IA comme infrastructure centrale du commerce transfrontalier de détail, réduisant la barrière d'entrée pour des entrepreneurs individuels qui n'avaient jusqu'ici ni le temps ni les ressources pour accéder efficacement à la manufacture asiatique.

Impact France/UE

Les vendeurs en ligne et PME françaises qui s'approvisionnent via Alibaba.com peuvent potentiellement utiliser Accio, mais l'article ne documente aucune adoption européenne.

À lire aussi

ChatGPT intègre DoorDash, Spotify, Uber et d'autres applications : mode d'emploi
1TechCrunch AI 

ChatGPT intègre DoorDash, Spotify, Uber et d'autres applications : mode d'emploi

OpenAI a lancé une série de nouvelles intégrations tierces directement dans l'interface de ChatGPT, permettant aux utilisateurs d'interagir avec des services comme Spotify, DoorDash, Uber, Canva, Figma et Expedia sans quitter la conversation. Ces connecteurs fonctionnent via des actions natives : commander un repas, réserver un trajet, créer un design ou planifier un voyage, le tout piloté par le modèle en langage naturel. L'impact est significatif pour les utilisateurs quotidiens : ChatGPT cesse d'être un simple assistant textuel pour devenir un point d'entrée unique vers des dizaines de services. Pour les entreprises partenaires, c'est un accès direct à la base d'utilisateurs d'OpenAI, qui dépasse les 200 millions d'utilisateurs hebdomadaires actifs. Pour les concurrents comme Google Assistant ou Apple Intelligence, la pression s'intensifie sur le terrain de l'assistant universel. Cette initiative s'inscrit dans la stratégie d'OpenAI de transformer ChatGPT en plateforme, à l'image de ce qu'avait tenté le système de plugins en 2023, abandonné puis repensé. Avec l'émergence des agents autonomes et du protocole MCP (Model Context Protocol), OpenAI positionne ChatGPT comme couche d'orchestration centrale entre l'utilisateur et l'ensemble de son environnement numérique, un terrain sur lequel Apple, Google et Microsoft jouent également des enjeux considérables.

UESpotify et Uber étant disponibles en France, les utilisateurs européens de ChatGPT pourraient accéder à ces intégrations, mais le déploiement reste centré sur le marché américain à ce stade.

OutilsOutil
1 source
Codex et Claude Code peuvent fonctionner ensemble
2The Information AI 

Codex et Claude Code peuvent fonctionner ensemble

OpenAI et Anthropic, deux concurrents directs dans la course aux outils de codage par IA, viennent de franchir un pas surprenant vers l'interopérabilité. La semaine dernière, OpenAI a publié un plugin permettant aux utilisateurs de Claude Code d'intégrer Codex directement dans leur environnement de travail. Concrètement, Codex peut relire le code généré par Claude ou prendre le relais lorsque Claude se retrouve bloqué. Romain Huet, responsable de l'expérience développeur chez OpenAI, a expliqué sur X : "Nous avons vu des utilisateurs de Claude Code faire appel à Codex pour la revue de code, alors nous avons décidé de faciliter cette pratique." Cette collaboration inattendue signale un changement de paradigme dans l'industrie : plutôt que de se battre pour une exclusivité d'usage, les grands acteurs misent sur la complémentarité. Pour les développeurs, cela ouvre la possibilité de combiner les points forts de chaque outil dans un même flux de travail, sans avoir à choisir un camp. La qualité du code produit et la capacité à débloquer des situations complexes pourraient ainsi s'en trouver améliorées. Ce mouvement s'inscrit dans une tendance plus large portée également par Cursor, qui a annoncé jeudi une nouvelle version de son application permettant de travailler simultanément avec des agents de plusieurs fournisseurs, dont Claude Code et Codex. Alors que la concurrence entre OpenAI, Anthropic et les éditeurs tiers comme Cursor s'intensifie, l'interopérabilité devient un argument commercial à part entière, les développeurs refusant de plus en plus d'être enfermés dans un écosystème unique.

UELes développeurs français et européens peuvent désormais combiner Codex et Claude Code dans un même flux de travail, limitant la dépendance à un écosystème propriétaire unique.

OutilsOutil
1 source
RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch
3MarkTechPost 

RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch

RightNow AI a publié AutoKernel, un framework open-source qui automatise l'optimisation des kernels GPU pour n'importe quel modèle PyTorch. Le principe est simple : soumettre un modèle avant de dormir et retrouver au matin des kernels Triton plus rapides, sans avoir à maîtriser la programmation GPU de bas niveau. Le système repose sur une boucle agentique autonome : un agent LLM modifie un fichier kernel.py, un banc de test vérifie la correction puis mesure le débit, et le résultat détermine si la modification est conservée ou annulée via un git reset. Chaque itération dure environ 90 secondes, ce qui permet de réaliser 300 à 400 expériences lors d'une session de 10 heures. L'agent suit un manuel d'optimisation en six niveaux encodé dans un document de 909 lignes, couvrant le réglage des tailles de blocs, les patterns d'accès mémoire, les optimisations de calcul comme TF32, les techniques avancées comme split-K, et les stratégies spécifiques aux architectures Hopper et Ampere de NVIDIA. L'enjeu est considérable pour l'industrie du machine learning. Optimiser un kernel GPU de haute performance exige de raisonner simultanément sur l'intensité arithmétique, la coalescence mémoire, la pression sur les registres, la synchronisation au niveau warp et la sélection des instructions tensor core, un ensemble de compétences qui prend des années à acquérir. Un seul kernel de multiplication matricielle performant peut représenter plus de 200 lignes de code CUDA ou Triton avec des dizaines de paramètres interdépendants. La suite de benchmarks KernelBench, qui évalue les grands modèles de langage sur 250 problèmes de kernels GPU, a montré que même les meilleurs modèles n'égalaient la baseline PyTorch que dans moins de 20 % des cas en génération directe. AutoKernel répond précisément à ce déficit en rendant cette expertise accessible sans spécialiste humain, ce qui pourrait accélérer significativement le développement et le déploiement de modèles d'IA. L'approche s'inspire directement du projet autoresearch d'Andrej Karpathy, dans lequel une boucle keep/revert appliquée à du code d'entraînement LLM avait permis de découvrir 20 optimisations en 700 expériences sur deux jours avec un seul GPU. AutoKernel transpose cette logique à l'espace des kernels, en substituant la loss de validation par un benchmark de correction et de débit comme fonction d'évaluation. La traçabilité est assurée par git, les résultats étant stockés dans un fichier TSV lisible directement par l'agent. Ce type de framework illustre une tendance plus large où les tâches d'ingénierie hautement spécialisées deviennent des cibles pour l'automatisation agentique, réduisant la dépendance aux rares experts en optimisation GPU à mesure que les architectures de modèles continuent d'évoluer.

💬 L'idée de laisser tourner une boucle agentique toute la nuit pour sortir des kernels Triton optimisés au matin, c'est exactement ce qu'on attendait depuis qu'on a vu Karpathy faire la même chose sur du code d'entraînement. La partie vraiment bien foutue, c'est le mécanisme d'évaluation : un benchmark de correction avant tout, et le git reset si ça régresse, ce qui évite de passer des heures à débugger des "optimisations" qui cassent tout. Pour les équipes sans expert CUDA dans les jambes, c'est une vraie bouffée d'air.

OutilsOutil
1 source
Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages
4InfoQ AI 

Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages

Un benchmark de 600 exécutions mené par Yusuke Endoh, contributeur au langage Ruby, a comparé les performances de Claude Code sur 13 langages de programmation différents, en lui faisant implémenter une version simplifiée de Git. Les résultats montrent que Ruby, Python et JavaScript sont les langages les plus rapides et les moins coûteux, avec un tarif compris entre 0,36 et 0,39 dollar par exécution. Les langages à typage statique, comme Java, Go ou Rust, se révèlent 1,4 à 2,6 fois plus chers. L'ajout de vérificateurs de types aux langages dynamiques entraîne quant à lui des ralentissements de 1,6 à 3,2 fois. Le jeu de données complet est disponible sur GitHub. Ces chiffres ont des implications directes pour les équipes qui utilisent des agents de codage alimentés par des LLM dans leurs workflows de développement. Le choix du langage influence non seulement la vitesse d'exécution des agents, mais aussi le coût opérationnel à grande échelle. Pour les entreprises qui déploient Claude Code massivement, la différence entre un langage dynamique et un langage statiquement typé peut représenter une multiplication substantielle des dépenses en tokens. Cette étude s'inscrit dans un contexte où l'utilisation des agents de codage autonomes se généralise rapidement dans l'industrie. Anthropic, l'entreprise derrière Claude, pousse activement Claude Code comme outil de développement agentic. La question de l'efficacité par langage devient stratégique alors que les équipes cherchent à optimiser leurs pipelines d'automatisation du code, et ce type de benchmark indépendant fournit des données concrètes pour guider ces choix techniques.

OutilsOutil
1 source