🇨🇳 Qwen 3 14B
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
La RTX 4070 (12 GB GDDR6X, 504 Go/s) est le mid-range Ada Lovelace de 2023. 12 Go suffisent pour 7-14B en Q4. Bonne option occasion ~400 €.
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
Raisonnement exceptionnel pour sa taille. Orienté STEM.
ollama run phi4:14b
Codéveloppé avec NVIDIA. 128k ctx, Tekken tokenizer, fort en multilingue européen.
ollama run mistral-nemo:12b
Sweet spot multimodal. 128k ctx, vision, 140 langues.
ollama run gemma3:12b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 4070 |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 14B | 14B | 9 GB | 131 072 | Apache 2.0 | 20 tok/s · Q5_K_M |
| #2 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT | 20 tok/s · Q5_K_M |
| #3 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT | 20 tok/s · Q5_K_M |
| #4 | Granite 4.0 H-Tiny 7B-A1B | 7B | 4 GB | 128 000 | Apache 2.0 | 180 tok/s · Q8 |
| #5 | Phi-4 14B | 14B | 9 GB | 16 384 | MIT | 20 tok/s · Q5_K_M |
| #6 | Mistral Nemo 12B Instruct | 12B | 7 GB | 128 000 | Apache 2.0 | 25 tok/s · Q5_K_M |
| #7 | Gemma 3 12B | 12B | 7 GB | 128 000 | Gemma | 22 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 11 Go. Bonus 7-14B. 504 Go/s = solid mid-range.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 4070 en 2026 : encore pertinent ?
Oui en occasion ~400 €. Mistral 7B Q5 (~5,5 Go) à 30 tok/s, Qwen 3 14B Q4 (~8 Go) à 25 tok/s. Voir guide.
4070 vs 4070 Super ?
Super = +15 % perf pour ~100 € de plus. Si LLM est l'usage principal et budget OK, prendre Super. Voir RTX 4070 Super.
4070 ou 3080 d'occasion ?
3080 10 Go = -2 Go VRAM mais 760 Go/s (vs 4070 504 Go/s). Plus rapide sur 7B mais limite à 9-10B en Q4 (vs 12B sur 4070). Selon priorité. Voir RTX 3080.
Quel modèle code sur 4070 ?
Qwen 2.5 Coder 14B Q4 (~8 Go) à 25-30 tok/s. Excellent pour Python/JS/Go/Rust. Voir classement code.
Approfondissez avec nos duels détaillés des finalistes :