🇨🇳 DeepSeek R1 Distill 32B
Le meilleur raisonneur open-weight accessible.
ollama run deepseek-r1:32b
Classement des LLM spécialisés raisonnement : ceux qui produisent une chaîne de pensée (chain-of-thought) explicite avant la réponse. Excellents en maths, logique formelle, débogage, et questions scientifiques qui demandent plusieurs étapes.
Le meilleur raisonneur open-weight accessible.
ollama run deepseek-r1:32b
Raisonneur RL Apache 2.0. AIME24 79.5, MATH-500 90.6. Concurrent direct de DeepSeek R1.
ollama run qwq:32b
Raisonneur MIT 14B. Bat R1-Distill-Llama-70B sur AIME/GPQA avec 50× moins de paramètres.
ollama run phi4-reasoning:14b
R1 distillé Qwen 14B. AIME24 69.7, MATH-500 93.9. Dépasse o1-mini sur beaucoup de benchmarks.
ollama run deepseek-r1:14b
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Raisonneur 3.8B MIT entraîné sur traces R1. AIME24 57.5, MATH-500 94.6.
ollama run phi4-mini-reasoning:3.8b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence |
|---|---|---|---|---|---|
| #1 | DeepSeek R1 Distill 32B | 32B | 19 GB | 32 768 | MIT |
| #2 | QwQ 32B | 32B | 19 GB | 131 072 | Apache 2.0 |
| #3 | Phi-4 Reasoning 14B | 14B | 9 GB | 32 768 | MIT |
| #4 | DeepSeek R1 Distill Qwen 14B | 14B | 9 GB | 131 072 | MIT |
| #5 | Qwen 3 30B-A3B | 30B | 19 GB | 131 072 | Apache 2.0 |
| #6 | Phi-4 Mini Reasoning 3.8B | 3.8B | 3 GB | 128 000 | MIT |
On filtre sur le tag « reasoning » — modèles explicitement entraînés à déployer une chaîne de pensée (tokens
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
C'est quoi un LLM de raisonnement ?
Un modèle qui génère d'abord une chaîne de pensée (suite d'étapes internes) avant de produire la réponse finale. Il est plus lent et plus verbeux, mais beaucoup plus précis sur les problèmes multi-étapes (maths, logique, débogage complexe).
DeepSeek R1 ou QwQ-32B : lequel est le meilleur ?
Voir le comparatif. Les deux sont très proches, DeepSeek R1 est légèrement devant sur MATH, QwQ sur GPQA. Choix par licence (les deux sont MIT/Apache) et VRAM (même taille ~32B).
Peut-on utiliser ces modèles en temps réel (chat) ?
Possible mais déconseillé : ils génèrent 2-5x plus de tokens qu'un modèle normal (la chaîne de pensée est visible). Mieux : les réserver aux questions qui le méritent, et utiliser un modèle rapide (Mistral 7B, Llama 3.1 8B) pour le chat basique.
Quelle VRAM pour DeepSeek R1 32B ?
19 GB en Q4_K_M, 23 GB en Q5, 35 GB en Q8. Une RTX 4090 (24 GB) tient confortablement en Q5. Une RTX 3060 12 GB est hors jeu sur cette taille.
Approfondissez avec nos duels détaillés des finalistes :