🇨🇳 Qwen 3 14B
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
La RTX 5070 Ti (16 GB GDDR7, 896 Go/s) est le sweet spot prix/perf Blackwell mid-range. 16 Go débloquent les 24B en Q4, 14B en Q5/Q6. Concurrente directe de la 4070 Ti Super.
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
Raisonnement exceptionnel pour sa taille. Orienté STEM.
ollama run phi4:14b
Dense 14B Apache 2.0. MMLU 79.7, HumanEval 83.5. 29+ langues. Bon compromis.
ollama run qwen2.5:14b
Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.
ollama run qwen2.5-coder:14b
Petit frère de gpt-oss 120B. 21B/3.6B actifs. Égale o3-mini sur laptop.
ollama run openai/gpt-oss:20b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 5070 Ti |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 14B | 14B | 9 GB | 131 072 | Apache 2.0 | 20 tok/s · Q8 |
| #2 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT | 20 tok/s · Q8 |
| #3 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT | 20 tok/s · Q8 |
| #4 | Phi-4 14B | 14B | 9 GB | 16 384 | MIT | 20 tok/s · Q8 |
| #5 | Qwen 2.5 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 20 tok/s · Q8 |
| #6 | Qwen 2.5 Coder 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 20 tok/s · Q8 |
| #7 | gpt-oss 20B | 21B | 13 GB | 128 000 | Apache 2.0 | 55 tok/s · Q5_K_M |
Filtre : modèles Q4_K_M ≤ 14 Go. Bonus 7-14B et 13-24B accessibles. Bande passante GDDR7 896 Go/s.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 5070 Ti vs 4070 Ti Super ?
Même 16 Go. 5070 Ti GDDR7 896 Go/s vs 4070 Ti Super GDDR6X 672 Go/s. ~30 % de gain. Mistral Small 24B Q4 : 5070 Ti ~35 tok/s vs 4070 Ti Super ~26 tok/s. Voir RTX 4070 Ti Super.
Sweet spot LLM 2026 sur 5070 Ti ?
Qwen 3 14B Q6 (~12 Go) ou Mistral Small 24B Q4 (~13 Go) — qualité GPT-4-ish, 35-50 tok/s. RAG long (32k contexte) confortable.
Peut-on entraîner du LoRA sur 5070 Ti ?
Oui pour 7B QLoRA (Unsloth + 4-bit) : ~12-13 Go avec optimizer 8-bit. 14B trop juste. Voir guide complet.
5070 Ti ou 5080 ?
5080 = 16 Go aussi mais 960 Go/s + 10752 CUDA cores vs 8960 sur 5070 Ti. Gain ~10-15 %. Surcoût ~300-400 € — pas rentable sauf si workflow lourd. Voir RTX 5080.
Approfondissez avec nos duels détaillés des finalistes :