🇨🇳 Qwen 3 14B
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
La Radeon RX 7900 GRE (16 GB GDDR6, 576 Go/s) est la variante mid de la série 7900. 16 Go débloquent les 24B en Q4 à prix doux (~550 € neuve), bande passante correcte.
Dense 14B avec hybrid thinking. Égale Qwen 2.5 32B Base sur STEM/code.
ollama run qwen3:14b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
Raisonnement exceptionnel pour sa taille. Orienté STEM.
ollama run phi4:14b
Dense 14B Apache 2.0. MMLU 79.7, HumanEval 83.5. 29+ langues. Bon compromis.
ollama run qwen2.5:14b
Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.
ollama run qwen2.5-coder:14b
Petit frère de gpt-oss 120B. 21B/3.6B actifs. Égale o3-mini sur laptop.
ollama run openai/gpt-oss:20b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur Radeon RX 7900 GRE |
|---|---|---|---|---|---|---|
| #1 | Qwen 3 14B | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #2 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT | 6 tok/s · Q8 |
| #3 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT | 6 tok/s · Q8 |
| #4 | Phi-4 14B | 14B | 9 GB | 16 384 | MIT | 6 tok/s · Q8 |
| #5 | Qwen 2.5 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #6 | Qwen 2.5 Coder 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 | 6 tok/s · Q8 |
| #7 | gpt-oss 20B | 21B | 13 GB | 128 000 | Apache 2.0 | 20 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 14 Go. Bonus 7-14B et 13-24B. 576 Go/s + ROCm 6.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RX 7900 GRE vs 7800 XT ?
GRE = 576 Go/s vs 7800 XT 624 Go/s. Quasi identique. GRE souvent moins chère ~50 €. Voir RX 7800 XT.
GRE = Golden Rabbit Edition ?
Oui — variante exclusivement Chine à l'origine (2024), arrivée en Europe en 2024-2025. 16 Go + bande passante mid. Pour LLM, équivalent à 7800 XT.
Sweet spot LLM GRE ?
Mistral Small 24B Q4 (~13 Go) à 21 tok/s, Qwen 3 14B Q5 (~10 Go) à 30 tok/s.
ROCm sur GRE : easy ?
Oui, identique à toute RDNA 3. Voir guide.
Approfondissez avec nos duels détaillés des finalistes :