🇨🇳 Qwen 3 30B-A3B
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Le Mac Studio (M2 / M3 / M4 Ultra, jusqu'à 512 Go de mémoire unifiée, 800-1100 Go/s) est la workstation grand public la plus capable pour l'IA locale. 70B en Q5, 200B en Q4, frontier 670B en Q3.
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Hybride Mamba-2 + MoE 32B/9B actifs. ~70% de RAM en moins en long contexte. Apache 2.0.
ollama run granite4:small-h
Vision MoE 30B/3B actifs. Sweet spot vision Qwen 3. 256k ctx.
ollama run qwen3-vl:30b
Agentic coréen MoE 30B/3B actifs. Couvre KR/EN/JP/ZH/TH/VI. Apache 2.0. MLA attention.
ollama pull hf.co/kakaoai/Kanana-2-30B-GGUF
Omni MoE 30B/3B actifs. Streaming speech. 119 langues ASR. Apache 2.0.
ollama run qwen3-omni:30b
Hybride Mamba-2 + Transformer MoE 30B/3B actifs. 1M ctx. 4× throughput vs Nemotron 2.
ollama run nemotron3:30b
Omnimodal MoE 30B/3B actifs : texte+image+audio+vidéo, 256k ctx, hybrid Mamba2-MoE, 9× throughput vs concurrents. Sortie 28 avril 2026.
# HuggingFace : nvidia/Nemotron-3-Nano-Omni-30B-A3B-Reasoning-BF16
MoE 30B/3B actifs : thinking mode + instruct. Médaille d'or IMO 2025 et IOI 2025. Inférence rapide grâce aux 3B actifs, capacités raisonnement de niveau 30B. Sortie avril 2026.
ollama run nemotron-cascade-2
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur Apple M2 Ultra (128 GB) |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 30B-A3B | 30B | 19 GB | 131 072 | Apache 2.0 | 100 tok/s · FP16 |
| #2 | Granite 4.0 H-Small 32B-A9B | 32B | 19 GB | 128 000 | Apache 2.0 | 75 tok/s · FP16 |
| #3 | Qwen 3 VL 30B-A3B | 30B | 19 GB | 262 144 | Apache 2.0 | 100 tok/s · FP16 |
| #4 | Kanana 2 30B-A3B Thinking | 30B | 18 GB | 131 072 | Apache 2.0 | 100 tok/s · FP16 |
| #5 | Qwen 3 Omni 30B-A3B | 30B | 19 GB | 131 072 | Apache 2.0 | 100 tok/s · FP16 |
| #6 | Nemotron Nano 3 30B-A3B | 30B | 19 GB | 1 000 000 | NVIDIA Open Model License | 100 tok/s · FP16 |
| #7 | Nemotron 3 Nano Omni 30B-A3B | 30B | 21 GB | 256 000 | NVIDIA Open Model License | 100 tok/s · FP16 |
| #8 | Nemotron Cascade 2 30B-A3B | 30B | 17 GB | 128 000 | NVIDIA Open Model License | 80 tok/s · FP16 |
Filtre : 7-700B (on autorise les frontier MoE). Gros bonus 30-200B (peak Studio Ultra) et MoE en général : la bande passante 800+ Go/s exploite vraiment ces modèles.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
Mac Studio M2 Ultra 192 Go : Llama 70B fluide ?
Oui — Llama 3.3 70B Q5_K_M (~48 Go) à 14-18 tok/s, Q4 à 18-22 tok/s. C'était le premier hardware Apple capable de 70B confortable en local. Voir le guide Mac Studio.
Mac Studio M4 Ultra 512 Go : DeepSeek 670B ?
Oui — DeepSeek V4 Pro 671B (37B actifs MoE) Q4_K_M (~340 Go) tourne à 8-12 tok/s. C'est le premier hardware grand public capable de frontier 670B. Voir DeepSeek V4 Pro.
Mac Studio vs serveur 4× H100 ?
4× H100 (320 Go HBM3) coûte ~120 000 € + alimentation 2 kW. Mac Studio M4 Ultra 512 Go ~12 000 €, conso 200 W. Le H100 est ~5-10× plus rapide en throughput, mais le Studio gagne en €/Go de mémoire et en silence.
MLX obligatoire sur Studio Ultra ?
Très recommandé. MLX exploite mieux la bande passante 800+ Go/s, gain 25-40 % de tok/s sur les gros modèles. Ollama (llama.cpp Metal) marche mais sous-exploite légèrement la machine.
Approfondissez avec nos duels détaillés des finalistes :