🇨🇳 Qwen 3 14B
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
La Radeon RX 7800 XT (16 GB GDDR6, 624 Go/s) est l'AMD mid-range RDNA 3. 16 Go débloquent les 24B en Q4 à ~500 € — meilleur €/Go que NVIDIA 16 Go.
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
Raisonnement exceptionnel pour sa taille. Orienté STEM.
ollama run phi4:14b
Dense 14B Apache 2.0. MMLU 79.7, HumanEval 83.5. 29+ langues. Bon compromis.
ollama run qwen2.5:14b
Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.
ollama run qwen2.5-coder:14b
Petit frère de gpt-oss 120B. 21B/3.6B actifs. Égale o3-mini sur laptop.
ollama run openai/gpt-oss:20b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur Radeon RX 7800 XT |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 14B | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #2 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT | 6 tok/s · Q8 |
| #3 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT | 6 tok/s · Q8 |
| #4 | Phi-4 14B | 14B | 9 GB | 16 384 | MIT | 6 tok/s · Q8 |
| #5 | Qwen 2.5 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #6 | Qwen 2.5 Coder 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #7 | gpt-oss 20B | 21B | 13 GB | 128 000 | Apache 2.0 | 20 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 14 Go. Bonus 7-14B et 13-24B. 624 Go/s + ROCm 6.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RX 7800 XT vs RX 9070 ?
9070 = RDNA 4 (2025), 7800 XT = RDNA 3 (2023). Même 16 Go + bande passante similaire. 9070 légèrement plus efficace + ML accelerators. Voir RX 9070.
Sweet spot LLM 7800 XT ?
Mistral Small 24B Q4 (~13 Go) à 22 tok/s, Qwen 3 14B Q5 (~10 Go) à 32 tok/s.
ROCm 6 + 7800 XT facile ?
Oui : Ollama install + flag -gpu rocm = ça marche. llama.cpp même chose. vLLM AMD progresse mais moins stable. Voir guide.
7800 XT ou RTX 4070 Super ?
7800 XT = 16 Go + ROCm, 4070 Super = 12 Go + CUDA mature. Pour 24B accessibles, AMD. Pour speed pure sur 7-14B, NVIDIA. Voir RTX 4070 Super.
Approfondissez avec nos duels détaillés des finalistes :