QuelLLMFR Analyser ma config →
Accueil Catalogue Meilleur LLM local pour coder en 2026

Meilleur LLM local pour coder en 2026

Classement des LLM open-weights spécialisés ou performants pour la génération, le refactoring et l'autocomplétion de code. On privilégie les modèles évalués sur HumanEval/MBPP, avec un contexte ≥ 32k tokens pour couvrir des fichiers entiers, et une licence permissive.

Classement

1

🇫🇷 Devstral Small 2 24B

Mistral AI · 24B paramètres · Apache 2.0 · 256 000 tokens ctx

Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.

Pourquoi ce rang Modèle spécialisé code, contexte 256 000 tokens. Licence libre commerciale.
ollama run devstral-small2:24b
VRAM Q4
14 GB
26 GB en Q8
2

🇨🇳 Qwen 2.5 Coder 32B

Alibaba · 32B paramètres · Apache 2.0 · 131 072 tokens ctx

Le meilleur LLM de code open-weight. Niveau Claude 3.5 Sonnet.

Pourquoi ce rang Modèle spécialisé code, contexte 131 072 tokens. Licence libre commerciale.
ollama run qwen2.5-coder:32b
VRAM Q4
19 GB
35 GB en Q8
3

🇨🇳 Qwen 2.5 Coder 14B Instruct

Alibaba · 14B paramètres · Apache 2.0 · 131 072 tokens ctx

Coder 14B. HumanEval 89.6, LiveCodeBench 37.1. Sweet spot VRAM pour code self-host.

Pourquoi ce rang Modèle spécialisé code, contexte 131 072 tokens. Licence libre commerciale.
ollama run qwen2.5-coder:14b
VRAM Q4
9 GB
16 GB en Q8
4

🇨🇳 DeepSeek Coder V2 Lite 16B

DeepSeek · 16B paramètres · MIT · 131 072 tokens ctx

MoE spécialisé code. Rapide malgré la taille.

Pourquoi ce rang Modèle spécialisé code, contexte 131 072 tokens. Licence libre commerciale.
ollama run deepseek:coder:v2:16b
VRAM Q4
10 GB
18 GB en Q8
5

🇫🇷 Codestral Mamba 7B

Mistral AI · 7B paramètres · Apache 2.0 · 256 000 tokens ctx

Mamba SSM pur pour le code. Inférence linéaire, ctx 256k. Pas d'Ollama (support llama.cpp partiel).

Pourquoi ce rang Modèle spécialisé code, contexte 256 000 tokens. Licence libre commerciale.
# HuggingFace : mistralai/Mamba-Codestral-7B-v0.1
VRAM Q4
5 GB
9 GB en Q8
6

🇨🇳 Yi Coder 9B Chat

01.AI · 9B paramètres · Apache 2.0 · 128 000 tokens ctx

Coder 9B, 52 langages. LiveCodeBench 23% (meilleur <10B). Surpasse DeepSeek Coder 33B.

Pourquoi ce rang Modèle spécialisé code, contexte 128 000 tokens. Licence libre commerciale.
ollama run yi-coder:9b
VRAM Q4
5.5 GB
10 GB en Q8
7

🇫🇷 Codestral 22B v0.1

Mistral AI · 22B paramètres · Mistral Non-Production License · 32 000 tokens ctx

Code 22B Mistral, 80+ langages. ⚠ Licence MNPL non-production — usage personnel/recherche.

Pourquoi ce rang Modèle spécialisé code, contexte 32 000 tokens. Licence à vérifier pour la prod.
ollama run codestral:22b
VRAM Q4
13 GB
24 GB en Q8

Tableau comparatif

Rang Modèle Params VRAM Q4 Contexte Licence
#1 Devstral Small 2 24B 24B 14 GB 256 000 Apache 2.0
#2 Qwen 2.5 Coder 32B 32B 19 GB 131 072 Apache 2.0
#3 Qwen 2.5 Coder 14B Instruct 14B 9 GB 131 072 Apache 2.0
#4 DeepSeek Coder V2 Lite 16B 16B 10 GB 131 072 MIT
#5 Codestral Mamba 7B 7B 5 GB 256 000 Apache 2.0
#6 Yi Coder 9B Chat 9B 5.5 GB 128 000 Apache 2.0
#7 Codestral 22B v0.1 22B 13 GB 32 000 Mistral Non-Production License

Méthodologie du classement

On filtre les modèles dont les tags incluent « code » et qui restent ≤ 100B (au-delà ce n'est plus « local »). Le classement combine : spécialisation code (nom contient « coder », « codestral », « devstral »), contexte long, licence permissive, et taille sweet spot 7-32B.

Critères pris en compte :

  • HumanEval / MBPP
  • Contexte ≥ 32k tokens
  • Licence permissive
  • Support IDE (Continue, Aider)

Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.

Questions fréquentes

Quel est le meilleur LLM open-source pour coder en 2026 ?

Notre #1 est Devstral Small 2 24B (24B, Apache 2.0). Il combine une précision HumanEval élevée, un contexte de 256 000 tokens et une licence permissive.

Quelle VRAM faut-il pour un bon LLM de code ?

Pour un modèle 7B Coder en Q4_K_M, 6-8 GB de VRAM suffisent. Pour un 32B Coder en Q4, prévoyez 20-24 GB (RTX 4090, 3090, 7900 XTX). En Q5 ou Q8 ça grimpe vite — consultez le configurateur.

Puis-je l'utiliser en production commerciale ?

Oui si la licence est Apache 2.0 ou MIT. Codestral est sous Mistral Non-Production License — uniquement pour usage perso/recherche. Qwen et DeepSeek sont libres.

Comment intégrer un LLM local dans VS Code ?

Via l'extension Continue, qui se branche à votre serveur Ollama ou LM Studio local. Aider fonctionne en CLI pour du refactoring multi-fichiers.

Comparatifs en tête-à-tête

Approfondissez avec nos duels détaillés des finalistes :

Pour aller plus loin