
Découvrez AutoRound, la quantification avancée d'Intel pour les LM LL et VL
Intel a présenté AutoRound, une quantification avancée pour les modèles de traitement du langage à grande échelle (LLMs) et les modèles de traitement du langage très à grande échelle (VLMs). Cette technique optimise l'équilibrage entre précision et efficacité, réduisant ainsi la mémoire nécessaire et améliorant les performances. AutoRound permet une réduction de la mémoire jusqu'à 40% tout en maintenant les performances, ce qui est crucial pour les applications dépendantes du cloud et les appareils embarqués.
AutoRound d'Intel, optimisant les modèles LLM et VLM, permet une réduction de la mémoire jusqu'à 40% tout en maintenant les performances, bénéficiant potentiellement des entreprises françaises et européennes utilisant des infrastructures cloud et des appareils embarqués, en respectant les réglementations AI Act et RGPD en assurant une gestion efficace des données.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




