🇨🇳 Qwen 3 14B
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
La RTX 4080 Super (16 GB GDDR6X, 736 Go/s) est la variante boostée Ada Lovelace tier 1. ~5 % plus rapide que la 4080. 16 Go débloquent les 24B en Q4_K_M à 30-35 tok/s.
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
Raisonnement exceptionnel pour sa taille. Orienté STEM.
ollama run phi4:14b
Dense 14B Apache 2.0. MMLU 79.7, HumanEval 83.5. 29+ langues. Bon compromis.
ollama run qwen2.5:14b
Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.
ollama run qwen2.5-coder:14b
Petit frère de gpt-oss 120B. 21B/3.6B actifs. Égale o3-mini sur laptop.
ollama run openai/gpt-oss:20b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 4080 Super |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 14B | 14B | 9 GB | 131 072 | Apache 2.0 | 55 tok/s · Q8 |
| #2 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT | 55 tok/s · Q8 |
| #3 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT | 55 tok/s · Q8 |
| #4 | Phi-4 14B | 14B | 9 GB | 16 384 | MIT | 55 tok/s · Q8 |
| #5 | Qwen 2.5 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 55 tok/s · Q8 |
| #6 | Qwen 2.5 Coder 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 55 tok/s · Q8 |
| #7 | gpt-oss 20B | 21B | 13 GB | 128 000 | Apache 2.0 | 130 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 14 Go. Bonus 7-14B et 13-24B. Variante boost ~5 % vs 4080 standard.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 4080 Super vs 4080 ?
Même 16 Go. 4080 Super = +5 % perf (~7 % CUDA cores, GDDR6X légèrement plus rapide). Différence imperceptible sur la plupart des LLM. Préférez la moins chère en occasion. Voir RTX 4080.
4080 Super vs 5080 ?
5080 = ~25 % plus rapide (GDDR7 vs GDDR6X) mais ~600 € de plus neuve. 4080 Super en occasion ~700 € = meilleur rapport. Voir RTX 5080.
Llama 70B sur 4080 Super ?
Non — Q4 (~40 Go) ne tient pas en 16 Go. Q2_K (~28 Go) ne tient pas non plus. Pour 70B en local consumer, viser RTX 4090/5090 24+ Go ou Mac Studio 64+ Go.
Sweet spot LLM sur 4080 Super ?
Mistral Small 24B Q4 (~13 Go) à 30 tok/s ou Qwen 3 14B Q6 (~12 Go) à 50 tok/s. Pour code, Qwen 2.5 Coder 14B Q5. Voir classement code.
Approfondissez avec nos duels détaillés des finalistes :