🇨🇳 Qwen 3 30B-A3B
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Pour un usage commercial (SaaS, produit payant, service interne d'entreprise), seules les licences permissives (Apache 2.0, MIT, BSD) sont réellement tranquilles. On écarte les licences communautaires avec seuils d'utilisateurs, et les licences non-prod.
MoE 30B/3B actifs hybrid thinking. MMLU 81.4, AIME24 80.4. 100+ langues.
ollama run qwen3:30b-a3b
Hybride Mamba-2 + MoE 32B/9B actifs. ~70% de RAM en moins en long contexte. Apache 2.0.
ollama run granite4:small-h
Le meilleur rapport qualité/taille en 2025. Rivalise avec les 70B.
ollama run mistral-small:24b
Le meilleur raisonneur open-weight accessible.
ollama run deepseek-r1:32b
Small 3 enrichi de la vision. 128k ctx, Apache 2.0. Small 3.2 (Juin 2025) disponible en update.
ollama run mistral-small3.1:24b
Dense 32B avec thinking mode. MMLU-Pro 65.5, SuperGPQA 39.8.
ollama run qwen3:32b
Raisonneur RL Apache 2.0. AIME24 79.5, MATH-500 90.6. Concurrent direct de DeepSeek R1.
ollama run qwq:32b
Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.
ollama run devstral-small2:24b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence |
|---|---|---|---|---|---|
| #1 | Qwen 3 30B-A3B | 30B | 19 GB | 131 072 | Apache 2.0 |
| #2 | Granite 4.0 H-Small 32B-A9B | 32B | 19 GB | 128 000 | Apache 2.0 |
| #3 | Mistral Small 3 | 24B | 14 GB | 32 768 | Apache 2.0 |
| #4 | DeepSeek R1 Distill 32B | 32B | 19 GB | 32 768 | MIT |
| #5 | Mistral Small 3.1 24B | 24B | 14 GB | 128 000 | Apache 2.0 |
| #6 | Qwen 3 32B | 32B | 19 GB | 131 072 | Apache 2.0 |
| #7 | QwQ 32B | 32B | 19 GB | 131 072 | Apache 2.0 |
| #8 | Devstral Small 2 24B | 24B | 14 GB | 256 000 | Apache 2.0 |
Filtre strict : licence contient Apache, MIT ou BSD. Pas de Llama Community (seuil 700M MAU), pas de Mistral NPL, pas de Gemma (licence custom permissive mais avec clauses d'usage acceptable).
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
Llama 3.3 70B est-il libre commercialement ?
Non, Llama 3.3 est sous "Llama 3.3 Community License" — libre sauf si votre produit dépasse 700M MAU. Pour un produit grand public futur, c'est un risque. Préférez Qwen (Apache 2.0) ou Mistral (Apache 2.0 sur les modèles Open).
Et Gemma de Google ?
Gemma est sous "Gemma License" — permissive mais avec clause d'usage acceptable (pas pour armes, surveillance de masse, etc.). Pour la plupart des usages B2B, c'est OK, mais lisez attentivement si votre produit touche à la défense ou à la sécurité.
Puis-je fine-tuner un modèle Apache 2.0 et le revendre ?
Oui — Apache 2.0 permet la modification et la redistribution, y compris commerciale. Vous devez juste garder l'attribution et la licence dans les poids redistribués. Vos propres données d'entraînement restent les vôtres.
Qwen vient de Chine — y a-t-il un risque légal ?
Les modèles Qwen sont publiés sous Apache 2.0 par Alibaba Cloud. La licence est valide internationalement. Pour des usages très sensibles (défense, santé), certaines entreprises préfèrent Mistral (🇫🇷) ou IBM Granite (🇺🇸) pour la traçabilité de provenance.
Approfondissez avec nos duels détaillés des finalistes :