Aller au contenu principal
Ollama accélère les modèles locaux sur Mac grâce au support MLX
OutilsArs Technica AI6sem

Ollama accélère les modèles locaux sur Mac grâce au support MLX

Résumé IASource uniqueImpact UE
Source originale ↗·

Ollama, le système d'exécution qui permet de faire tourner des grands modèles de langage en local, vient d'annoncer la prise en charge du framework open source MLX d'Apple, conçu spécifiquement pour le machine learning sur les puces Apple Silicon. En parallèle, la plateforme a amélioré ses performances de mise en cache et ajoute la prise en charge du format NVFP4 de Nvidia, une technique de compression de modèles qui réduit significativement l'empreinte mémoire. Ces trois avancées conjuguées se traduisent par des gains de vitesse substantiels pour les utilisateurs de Mac équipés de puces M1 ou plus récentes.

L'impact est concret pour les développeurs et professionnels qui souhaitent exécuter des modèles IA sans dépendre du cloud : les temps d'inférence diminuent, la consommation mémoire baisse, et des modèles autrefois trop lourds pour tourner confortablement sur un MacBook deviennent utilisables au quotidien. La compression NVFP4 est particulièrement significative car elle permet de faire tenir des modèles plus puissants dans la mémoire unifiée des Mac, sans perte de qualité notable — un verrou technique majeur qui saute.

Ces annonces s'inscrivent dans un moment charnière pour l'IA locale. L'engouement autour d'OpenClaw — un projet qui a dépassé les 300 000 étoiles sur GitHub en un temps record, généré des expériences virales comme Moltbook, et suscité une véritable obsession en Chine — a propulsé l'exécution de modèles en local bien au-delà des cercles de chercheurs et de passionnés. Ce qui était niche il y a six mois touche désormais un public bien plus large de développeurs et d'entreprises soucieux de confidentialité, de coûts et d'autonomie vis-à-vis des fournisseurs cloud. Ollama se positionne ainsi comme infrastructure clé de cet écosystème en pleine explosion.

Impact France/UE

Les développeurs et entreprises européennes utilisant des Mac Apple Silicon peuvent exécuter des modèles IA en local plus rapidement, renforçant leur autonomie vis-à-vis des fournisseurs cloud et facilitant la conformité RGPD.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur
1AWS ML Blog 

Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur

Amazon a introduit une fonctionnalité de personnalisation de modèles sans serveur dans SageMaker AI, permettant aux équipes d'améliorer drastiquement les capacités d'appel d'outils des agents IA sans gérer d'infrastructure GPU. Dans un cas concret publié début avril 2026, des ingénieurs ont affiné le modèle Qwen 2.5 7B Instruct en utilisant la technique RLVR (Reinforcement Learning with Verifiable Rewards) et ont obtenu une amélioration de 57% du score de qualité des appels d'outils sur des scénarios inédits, c'est-à-dire des outils que le modèle n'avait jamais vus lors de l'entraînement. La méthode repose sur un principe simple : le modèle génère huit réponses candidates par prompt, une fonction de récompense vérifie lesquelles sont correctes, et l'algorithme GRPO (Group Relative Policy Optimization) renforce les comportements qui surpassent la moyenne du groupe. SageMaker AI prend en charge les familles de modèles Amazon Nova, Llama, Qwen et DeepSeek, avec un suivi des métriques via MLflow intégré. L'enjeu est concret : les agents IA en production échouent fréquemment lors des appels d'outils, qu'il s'agisse d'halluciner des fonctions inexistantes, de passer des paramètres incorrects, ou de déclencher une action là où ils devraient demander une clarification. Ces erreurs bloquent le déploiement en production et détruisent la confiance des utilisateurs. La nouvelle approche serverless d'Amazon supprime l'obstacle opérationnel majeur que représentait jusqu'ici le fine-tuning par renforcement : achat de GPU, orchestration mémoire entre les phases de rollout et d'entraînement, infrastructure de récompenses, gestion des checkpoints. Les équipes peuvent désormais se concentrer sur leurs données, leur modèle et leur fonction de récompense, le reste étant géré par la plateforme. Le fine-tuning supervisé classique (SFT) montre ses limites pour ce type de tâche : il nécessite des exemples étiquetés pour chaque comportement souhaité, mais peine à généraliser la prise de décision entre appeler un outil, demander des informations supplémentaires, ou refuser d'agir. RLVR contourne ce problème en exploitant la nature vérifiable des appels d'outils : soit le modèle a appelé la bonne fonction avec les bons paramètres, soit non. Cette objectivité binaire rend l'appel d'outils particulièrement adapté à l'apprentissage par renforcement. Amazon positionne cette offre dans un marché de l'IA agentique en forte croissance, où des acteurs comme Google (Vertex AI), Microsoft (Azure ML) et des startups spécialisées se disputent les équipes qui cherchent à industrialiser des agents fiables, avec un accès simplifié via SageMaker Studio et un compte AWS standard.

OutilsActu
1 source
Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents
2AWS ML Blog 

Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents

Amazon a lancé Nova Act, un service AWS conçu pour automatiser les tests d'assurance qualité (QA) dans les pipelines de livraison logicielle. Contrairement aux frameworks traditionnels qui s'appuient sur des sélecteurs CSS, des identifiants d'éléments ou des références structurelles pour naviguer dans les interfaces, Nova Act utilise un modèle de compréhension visuelle et le langage naturel — exactement comme le ferait un utilisateur humain. La solution s'accompagne de QA Studio, une interface de référence incluant un frontend web, une API et une CLI, construite sur une infrastructure serverless AWS. Les équipes peuvent y créer des suites de tests via un assistant de parcours utilisateur, déclencher des exécutions à la demande, les planifier ou les intégrer directement dans leurs pipelines CI/CD. L'ensemble s'appuie sur Amazon Bedrock AgentCore Browser pour la prévisualisation en direct et AWS Secrets Manager pour la saisie sécurisée des données sensibles. L'enjeu est considérable pour les équipes produit et engineering. Dans les organisations actuelles, les critères d'acceptance sont définis par les product managers en langage métier, implémentés par les développeurs, puis retranscrits en code d'automatisation — souvent par ces mêmes développeurs. Ce fossé entre ceux qui comprennent les besoins utilisateurs et ceux qui maintiennent les tests crée une dette technique permanente : chaque refactoring d'interface ou ajustement de layout casse des dizaines de tests, même quand les fonctionnalités restent intactes. Nova Act supprime ce goulot d'étranglement en permettant à n'importe quel membre de l'équipe — y compris des non-développeurs — de rédiger et maintenir des tests en langage naturel. Quand un designer déplace un bouton ou qu'un développeur restructure un composant React, les tests s'adaptent automatiquement sans intervention manuelle. Cette annonce s'inscrit dans une course plus large des grands fournisseurs cloud à proposer des agents capables d'interagir avec des interfaces graphiques. OpenAI avec Operator, Anthropic avec Computer Use, et désormais AWS avec Nova Act ciblent tous le même marché : remplacer les scripts d'automatisation fragiles par des agents visuels autonomes. Pour AWS, l'intégration native dans l'écosystème Bedrock et les services managés représente un avantage compétitif face aux solutions standalone. Le marché du test logiciel automatisé pèse plusieurs milliards de dollars et souffre d'un taux d'échec élevé des projets d'automatisation traditionnels — souvent abandonnés après quelques mois faute de ressources pour maintenir les scripts. Si Nova Act tient ses promesses de résilience aux changements UI, il pourrait redistribuer significativement les cartes dans ce secteur et accélérer l'adoption de l'approche "shift-left" où les tests sont écrits dès la définition des exigences.

UELes équipes engineering européennes utilisant AWS peuvent intégrer Nova Act dans leurs pipelines CI/CD, mais aucun impact réglementaire ou institutionnel direct sur la France ou l'UE.

OutilsOutil
1 source
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous
3Frandroid 

Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous

Frandroid a publié un guide complet destiné au grand public pour installer et faire tourner un grand modèle de langage (LLM) en local, sur PC Windows ou Mac, sans nécessiter de connexion internet ni de compte sur des services cloud comme ChatGPT. Le tutoriel s'adresse explicitement aux non-spécialistes, avec des outils comme Ollama ou LM Studio qui permettent de télécharger et lancer des modèles open source en quelques commandes. L'intérêt est multiple : confidentialité totale des données, fonctionnement hors ligne, et absence de coûts d'abonnement. Pour les professionnels manipulant des documents sensibles ou les développeurs souhaitant tester des modèles sans quota d'API, l'IA locale représente une alternative sérieuse aux offres SaaS. La qualité des résultats dépend toutefois de la puissance matérielle disponible, notamment de la RAM et du GPU. Ce type de guide émerge dans un contexte où l'écosystème open source des LLM s'est considérablement démocratisé depuis 2023, porté par des modèles comme LLaMA (Meta), Mistral ou Gemma (Google). Des outils d'interface accessibles ont réduit la barrière technique, rendant l'IA locale viable pour un public bien au-delà des chercheurs et ingénieurs. La tendance devrait s'amplifier à mesure que les modèles s'optimisent pour tourner sur du matériel grand public.

UELe guide valorise explicitement Mistral (entreprise française) parmi les modèles recommandés, et répond aux préoccupations de souveraineté numérique européenne en permettant un traitement des données entièrement local, sans dépendance aux services cloud américains.

OutilsTuto
1 source
Amazon Bedrock : exploiter les données vidéo à grande échelle grâce aux modèles multimodaux
4AWS ML Blog 

Amazon Bedrock : exploiter les données vidéo à grande échelle grâce aux modèles multimodaux

Amazon Bedrock, la plateforme d'intelligence artificielle d'AWS, propose désormais une solution open source permettant d'analyser des vidéos à grande échelle grâce à des modèles multimodaux capables de traiter simultanément images et texte. Cette solution, disponible sur GitHub, s'articule autour de trois architectures distinctes, chacune adaptée à des cas d'usage et des compromis coût/performance différents. Elle répond à un besoin croissant des entreprises dans des secteurs aussi variés que la surveillance, la production médiatique, les réseaux sociaux ou les communications d'entreprise. Là où les approches traditionnelles de vision par ordinateur se limitaient à détecter des patterns prédéfinis — lentes, rigides et incapables de saisir le contexte sémantique — les nouveaux modèles fondationnels d'Amazon Bedrock changent la donne. La première approche, dite "frame-based", extrait des images à intervalles réguliers, élimine les doublons visuels grâce à des algorithmes de similarité (dont les embeddings multimodaux Nova d'Amazon en 256 dimensions, ou la détection de features OpenCV ORB), puis soumet ces frames à un modèle de compréhension d'image pendant que la piste audio est transcrite séparément via Amazon Transcribe. Ce workflow convient particulièrement à la surveillance de sécurité, au contrôle qualité industriel ou à la conformité réglementaire. Deux autres architectures complètent l'offre, chacune optimisée pour des scénarios différents comme l'analyse de scènes médiatiques, la détection de coupures publicitaires ou la modération de contenu sur les réseaux sociaux. L'ensemble du pipeline est orchestré par AWS Step Functions, garantissant une scalabilité et une fiabilité industrielle. L'analyse vidéo automatisée à grande échelle est devenue un enjeu stratégique majeur pour les organisations qui génèrent ou reçoivent des volumes massifs de contenus visuels. Jusqu'ici, ce travail reposait largement sur la révision manuelle ou des systèmes à règles figées, coûteux et peu adaptables. L'intégration de modèles multimodaux capables de comprendre le sens d'une scène, de répondre à des questions sur le contenu ou de détecter des événements nuancés représente un saut qualitatif important pour l'automatisation de workflows métier complexes.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour