🇨🇳 Qwen 3 30B-A3B
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
L'architecture Apple Silicon (M1 à M4) partage la mémoire entre CPU et GPU — excellent pour les LLM. Les modèles 7-32B tournent remarquablement bien sur Mac, surtout les Pro/Max avec 32-128 GB de mémoire unifiée.
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Hybride Mamba-2 + MoE 32B/9B actifs. ~70% de RAM en moins en long contexte. Apache 2.0.
ollama run granite4:small-h
Le meilleur rapport qualité/taille en 2025. Rivalise avec les 70B.
ollama run mistral-small:24b
Le meilleur raisonneur open-weight accessible.
ollama run deepseek-r1:32b
Small 3 enrichi de la vision. 128k ctx, Apache 2.0. Small 3.2 (Juin 2025) disponible en update.
ollama run mistral-small3.1:24b
Dense 32B avec thinking mode. MMLU-Pro 65.5, SuperGPQA 39.8.
ollama run qwen3:32b
Raisonneur RL Apache 2.0. AIME24 79.5, MATH-500 90.6. Concurrent direct de DeepSeek R1.
ollama run qwq:32b
Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.
ollama run devstral-small2:24b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur Apple M4 Pro (48 GB) |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 30B-A3B | 30B | 19 GB | 131 072 | Apache 2.0 | 40 tok/s · Q8 |
| #2 | Granite 4.0 H-Small 32B-A9B | 32B | 19 GB | 128 000 | Apache 2.0 | 30 tok/s · Q8 |
| #3 | Mistral Small 3 | 24B | 14 GB | 32 768 | Apache 2.0 | 15 tok/s · Q8 |
| #4 | DeepSeek R1 Distill 32B | 32B | 19 GB | 32 768 | MIT | 12 tok/s · Q8 |
| #5 | Mistral Small 3.1 24B | 24B | 14 GB | 128 000 | Apache 2.0 | 15 tok/s · Q8 |
| #6 | Qwen 3 32B | 32B | 19 GB | 131 072 | Apache 2.0 | 12 tok/s · Q8 |
| #7 | QwQ 32B | 32B | 19 GB | 131 072 | Apache 2.0 | 12 tok/s · Q8 |
| #8 | Devstral Small 2 24B | 24B | 14 GB | 256 000 | Apache 2.0 | 15 tok/s · Q8 |
On écarte les modèles < 3B (sous-exploitent) et > 72B (ne tiennent pas sur les Mac grand public). Bonus pour les tailles 7-32B — sweet spot des MacBook Pro / Mac Studio — et les licences libres (MLX nécessite souvent de convertir les poids).
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
Ollama ou MLX sur Mac ?
Ollama est le plus simple (1 commande). MLX est 20-30% plus rapide mais demande de la conversion de poids et un peu de terminal. LM Studio combine les deux (choix Ollama ou MLX en UI).
Quel Mac pour faire tourner un 70B ?
Mac Studio M2 Ultra (192 GB), M3 Max 128 GB, ou M4 Max 128 GB. Un 70B en Q4 = 40 GB + contexte, donc 64 GB minimum recommandé. M4 Pro 48 GB peut le faire en Q3 avec compromis.
MacBook Air M2 16 GB peut-il faire tourner un LLM ?
Oui — Mistral 7B Q4 (4-5 GB) ou Gemma 2 9B Q4 (6 GB) tournent sur M2 16 GB. Comptez 10-15 tokens/sec. Voir le guide dédié.
MLX plus rapide que llama.cpp sur Mac ?
Oui, généralement 15-30% plus rapide car MLX est natif Apple Silicon. Mais llama.cpp supporte plus de modèles et de quantifs. Pour du quotidien : Ollama (llama.cpp). Pour de la perf max : MLX.
Approfondissez avec nos duels détaillés des finalistes :