🇫🇷 Lucie 7B
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
La RTX 4060 (8 GB GDDR6, 272 Go/s) est l'entry-level Ada Lovelace. 8 Go suffisent pour les 7-9B en Q4 mais le débit reste modeste (~20 tok/s sur 7B).
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
Raisonnement chain-of-thought distillé. Bluffant en maths.
ollama run deepseek-r1:7b
Vision SOTA 7B. Vidéo >1h, grounding bbox, OCR multilingue. DocVQA 95.7.
ollama run qwen2.5vl:7b
Premier omni open : texte+image+audio+vidéo en entrée, texte+parole en sortie. Pas de tag Ollama officiel.
# GGUF : ggml-org/Qwen2.5-Omni-7B-GGUF (pas d'Ollama officiel)
Dense 7B 100% ouvert (poids + données + code). Transparence totale pour recherche.
ollama run olmo-3:7b
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
Texte+image+audio → texte. Mixture-of-LoRAs, jusqu'à ~2.8h d'audio. Pas de tag Ollama officiel.
# Via HuggingFace : microsoft/Phi-4-multimodal-instruct (pas d'Ollama officiel)
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 4060 |
|---|---|---|---|---|---|---|
| #1 | Lucie 7B | 7B | 5 GB | 4 096 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #2 | DeepSeek R1 Distill 7B | 7B | 5 GB | 32 768 | MIT | 12 tok/s · Q5_K_M |
| #3 | Qwen 2.5 VL 7B | 7B | 6 GB | 128 000 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #4 | Qwen 2.5 Omni 7B | 7B | 6 GB | 32 768 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #5 | OLMo 3 7B | 7B | 5 GB | 8 192 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #6 | Granite 4.0 H-Tiny 7B-A1B | 7B | 4 GB | 128 000 | Apache 2.0 | 60 tok/s · Q8 |
| #7 | Phi-4 Multimodal 5.6B | 5.6B | 4 GB | 128 000 | MIT | 15 tok/s · Q8 |
Filtre : Q4_K_M ≤ 7 Go. Bonus 1-7B et ≤ 3B (rapides). 272 Go/s correct pour 7B.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 4060 vs 5060 ?
5060 GDDR7 448 Go/s vs 4060 GDDR6 272 Go/s = ~65 % gain. Mistral 7B Q4 : 5060 ~40 tok/s vs 4060 ~24 tok/s. Si neuf, 5060. Voir RTX 5060.
4060 ou 3060 12 Go d'occasion ?
3060 12 Go = +4 Go VRAM mais ~25 % moins rapide (GDDR6 360 Go/s vs 4060 272 Go/s, mais Ada plus efficient). 3060 12 Go gagne pour LLM (13B accessible). Voir RTX 3060.
Sweet spot LLM 4060 ?
Mistral 7B Q5 (~5,5 Go) à 18 tok/s, Llama 3.2 3B Q4 à 40+ tok/s, Phi-4 Mini à 45+ tok/s. Pour 13B+, viser 12 Go (RTX 4070).
Faut-il une 4060 en 2026 ?
Pour LLM seul, viser 5060 (gain GDDR7) ou 4060 Ti 16 GB (gain VRAM). 4060 reste correcte si elle est déjà dans le PC. Voir 4060 Ti 16 GB.
Approfondissez avec nos duels détaillés des finalistes :