🇫🇷 Devstral Small 2 24B
Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.
ollama run devstral-small2:24b
Classement des LLM open-weights spécialisés ou performants pour la génération, le refactoring et l'autocomplétion de code. On privilégie les modèles évalués sur HumanEval/MBPP, avec un contexte ≥ 32k tokens pour couvrir des fichiers entiers, et une licence permissive.
Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.
ollama run devstral-small2:24b
Le meilleur LLM de code open-weight. Niveau Claude 3.5 Sonnet.
ollama run qwen2.5-coder:32b
Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.
ollama run qwen2.5-coder:14b
MoE spécialisé code. Rapide malgré la taille.
ollama run deepseek:coder:v2:16b
Mamba SSM pur pour le code. Inférence linéaire, ctx 256k. Pas d'Ollama (support llama.cpp partiel).
# HuggingFace : mistralai/Mamba-Codestral-7B-v0.1
Coder 9B, 52 langages. LiveCodeBench 23% (meilleur <10B). Surpasse DeepSeek Coder 33B.
ollama run yi-coder:9b
Code 22B Mistral, 80+ langages. ⚠ Licence MNPL non-production — usage personnel/recherche.
ollama run codestral:22b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence |
|---|---|---|---|---|---|
| #1 | Devstral Small 2 24B | 24B | 14 GB | 256 000 | Apache 2.0 |
| #2 | Qwen 2.5 Coder 32B | 32B | 19 GB | 131 072 | Apache 2.0 |
| #3 | Qwen 2.5 Coder 14B Instruct | 14B | 9 GB | 131 072 | Apache 2.0 |
| #4 | DeepSeek Coder V2 Lite 16B | 16B | 10 GB | 131 072 | MIT |
| #5 | Codestral Mamba 7B | 7B | 5 GB | 256 000 | Apache 2.0 |
| #6 | Yi Coder 9B Chat | 9B | 5.5 GB | 128 000 | Apache 2.0 |
| #7 | Codestral 22B v0.1 | 22B | 13 GB | 32 000 | Mistral Non-Production License |
On filtre les modèles dont les tags incluent « code » et qui restent ≤ 100B (au-delà ce n'est plus « local »). Le classement combine : spécialisation code (nom contient « coder », « codestral », « devstral »), contexte long, licence permissive, et taille sweet spot 7-32B.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
Quel est le meilleur LLM open-source pour coder en 2026 ?
Notre #1 est Devstral Small 2 24B (24B, Apache 2.0). Il combine une précision HumanEval élevée, un contexte de 256 000 tokens et une licence permissive.
Quelle VRAM faut-il pour un bon LLM de code ?
Pour un modèle 7B Coder en Q4_K_M, 6-8 GB de VRAM suffisent. Pour un 32B Coder en Q4, prévoyez 20-24 GB (RTX 4090, 3090, 7900 XTX). En Q5 ou Q8 ça grimpe vite — consultez le configurateur.
Puis-je l'utiliser en production commerciale ?
Oui si la licence est Apache 2.0 ou MIT. Codestral est sous Mistral Non-Production License — uniquement pour usage perso/recherche. Qwen et DeepSeek sont libres.
Comment intégrer un LLM local dans VS Code ?
Via l'extension Continue, qui se branche à votre serveur Ollama ou LM Studio local. Aider fonctionne en CLI pour du refactoring multi-fichiers.
Approfondissez avec nos duels détaillés des finalistes :