🇫🇷 Lucie 7B
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
La RTX 5060 (8 GB GDDR7, 448 Go/s) est l'entry-level Blackwell. 8 Go ne permettent que les 7-9B en Q4_K_M, mais GDDR7 + Neural Engine donnent 35-45 tok/s sur Mistral 7B.
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
Raisonnement chain-of-thought distillé. Bluffant en maths.
ollama run deepseek-r1:7b
Vision SOTA 7B. Vidéo >1h, grounding bbox, OCR multilingue. DocVQA 95.7.
ollama run qwen2.5vl:7b
Premier omni open : texte+image+audio+vidéo en entrée, texte+parole en sortie. Pas de tag Ollama officiel.
# GGUF : ggml-org/Qwen2.5-Omni-7B-GGUF (pas d'Ollama officiel)
Dense 7B 100% ouvert (poids + données + code). Transparence totale pour recherche.
ollama run olmo-3:7b
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
Le classique français. Rapide, polyvalent, excellente base pour débuter.
ollama run mistral:7b-instruct
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 5060 |
|---|---|---|---|---|---|---|
| #1 | Lucie 7B | 7B | 5 GB | 4 096 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #2 | DeepSeek R1 Distill 7B | 7B | 5 GB | 32 768 | MIT | 12 tok/s · Q5_K_M |
| #3 | Qwen 2.5 VL 7B | 7B | 6 GB | 128 000 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #4 | Qwen 2.5 Omni 7B | 7B | 6 GB | 32 768 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #5 | OLMo 3 7B | 7B | 5 GB | 8 192 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #6 | Granite 4.0 H-Tiny 7B-A1B | 7B | 4 GB | 128 000 | Apache 2.0 | 60 tok/s · Q8 |
| #7 | Mistral 7B Instruct | 7B | 5 GB | 32 768 | Apache 2.0 | 12 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 7 Go (laisse 1 Go contexte). Bonus 3-9B (peak 8 Go) et ≤ 7B (zero swap). 448 Go/s = throughput correct entry.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 5060 vs RTX 4060 ?
Même 8 Go. 5060 GDDR7 448 Go/s vs 4060 GDDR6 272 Go/s = ~65 % gain. Mistral 7B Q4 : 5060 ~40 tok/s vs 4060 ~24 tok/s. Voir RTX 4060.
8 Go suffisent pour démarrer en LLM local ?
Oui — Mistral 7B Q4 (~4,5 Go), Qwen 3 8B Q4 (~5 Go), Llama 3.2 3B Q4 (~2 Go) tous excellents. Pour 13B+, il faut 12 Go (RTX 5070). Voir classement 8 Go VRAM.
RTX 5060 ou 5060 Ti 16 ?
5060 = entry 8 Go (~340 €). 5060 Ti 16 = mid 16 Go (~480 €). Le saut +150 € débloque les 24B (Mistral Small Q4). Si budget OK, 5060 Ti 16. Voir RTX 5060 Ti 16GB.
Quelle quantif sur 5060 ?
Q5_K_M pour 7B (5,5 Go, qualité max). Q4_K_M pour 8-9B (5-5,5 Go). Q4_0 pour 13B forcé (~7 Go) mais qualité dégradée. Restez sur 7B Q5 pour le sweet spot.
Approfondissez avec nos duels détaillés des finalistes :