
Ollama accélère les modèles locaux sur Mac grâce au support MLX
Ollama, le système d'exécution qui permet de faire tourner des grands modèles de langage en local, vient d'annoncer la prise en charge du framework open source MLX d'Apple, conçu spécifiquement pour le machine learning sur les puces Apple Silicon. En parallèle, la plateforme a amélioré ses performances de mise en cache et ajoute la prise en charge du format NVFP4 de Nvidia, une technique de compression de modèles qui réduit significativement l'empreinte mémoire. Ces trois avancées conjuguées se traduisent par des gains de vitesse substantiels pour les utilisateurs de Mac équipés de puces M1 ou plus récentes.
L'impact est concret pour les développeurs et professionnels qui souhaitent exécuter des modèles IA sans dépendre du cloud : les temps d'inférence diminuent, la consommation mémoire baisse, et des modèles autrefois trop lourds pour tourner confortablement sur un MacBook deviennent utilisables au quotidien. La compression NVFP4 est particulièrement significative car elle permet de faire tenir des modèles plus puissants dans la mémoire unifiée des Mac, sans perte de qualité notable — un verrou technique majeur qui saute.
Ces annonces s'inscrivent dans un moment charnière pour l'IA locale. L'engouement autour d'OpenClaw — un projet qui a dépassé les 300 000 étoiles sur GitHub en un temps record, généré des expériences virales comme Moltbook, et suscité une véritable obsession en Chine — a propulsé l'exécution de modèles en local bien au-delà des cercles de chercheurs et de passionnés. Ce qui était niche il y a six mois touche désormais un public bien plus large de développeurs et d'entreprises soucieux de confidentialité, de coûts et d'autonomie vis-à-vis des fournisseurs cloud. Ollama se positionne ainsi comme infrastructure clé de cet écosystème en pleine explosion.
Les développeurs et entreprises européennes utilisant des Mac Apple Silicon peuvent exécuter des modèles IA en local plus rapidement, renforçant leur autonomie vis-à-vis des fournisseurs cloud et facilitant la conformité RGPD.
