🇫🇷 Lucie 7B
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
La RTX 2080 (8 GB GDDR6, 448 Go/s) reste fonctionnelle pour les 7-9B en Q4. Bande passante correcte, mais 8 Go limitent. Solide entry occasion ~150-200 €.
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
Raisonnement chain-of-thought distillé. Bluffant en maths.
ollama run deepseek-r1:7b
Vision SOTA 7B. Vidéo >1h, grounding bbox, OCR multilingue. DocVQA 95.7.
ollama run qwen2.5vl:7b
Premier omni open : texte+image+audio+vidéo en entrée, texte+parole en sortie. Pas de tag Ollama officiel.
# GGUF : ggml-org/Qwen2.5-Omni-7B-GGUF (pas d'Ollama officiel)
Dense 7B 100% ouvert (poids + données + code). Transparence totale pour recherche.
ollama run olmo-3:7b
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
Mode hybride thinking/fast. 119 langues, 32k natif (131k via YaRN).
ollama run qwen3:8b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 2080 |
|---|---|---|---|---|---|---|
| #1 | Lucie 7B | 7B | 5 GB | 4 096 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #2 | DeepSeek R1 Distill 7B | 7B | 5 GB | 32 768 | MIT | 12 tok/s · Q5_K_M |
| #3 | Qwen 2.5 VL 7B | 7B | 6 GB | 128 000 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #4 | Qwen 2.5 Omni 7B | 7B | 6 GB | 32 768 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #5 | OLMo 3 7B | 7B | 5 GB | 8 192 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #6 | Granite 4.0 H-Tiny 7B-A1B | 7B | 4 GB | 128 000 | Apache 2.0 | 60 tok/s · Q8 |
| #7 | Qwen 3 8B | 8B | 5 GB | 131 072 | Apache 2.0 | 12 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 7 Go. Bonus 3-9B. 448 Go/s = correct entry.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 2080 8 GB en 2026 ?
Encore utilisable pour 7-9B en Q4. Mistral 7B Q4 (~4,5 Go) à 28 tok/s, Phi-4 Mini à 45+ tok/s. Pour 13B+, viser 12 Go. Voir guide.
2080 vs 3060 12 GB ?
Bande passante similaire (448 vs 360 Go/s). 3060 12 GB = +4 Go VRAM = 13-14B accessibles. 3060 12 GB gagne pour LLM. Voir 3060 12GB.
Faut-il acheter une 2080 d'occasion en 2026 ?
Seulement si elle est < 150 €. Sinon préférez 3060 12 GB (~200 €) qui ouvre 13-14B Q4. Voir RTX 3060 12GB.
Quels modèles sweet spot 2080 ?
Mistral 7B Q5 (~5,5 Go, 30 tok/s), Qwen 3 8B Q4 (~5 Go, 27 tok/s), Llama 3.2 3B Q4 (~2 Go, 60+ tok/s).
Approfondissez avec nos duels détaillés des finalistes :