🇺🇸 Granite 4.0 H-Tiny 7B-A1B
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
La RTX 5050 (8 GB GDDR7, 320 Go/s) est l'entry budget 2025 (~280 €). Conçue pour le jeu 1080p mais 8 Go GDDR7 + Neural Engine permettent un usage LLM honnête sur 3-7B.
Hybride 7B/1B actifs. Coût compute extrêmement faible. Edge/embarqué.
ollama run granite4:tiny-h
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
Raisonnement chain-of-thought distillé. Bluffant en maths.
ollama run deepseek-r1:7b
Vision SOTA 7B. Vidéo >1h, grounding bbox, OCR multilingue. DocVQA 95.7.
ollama run qwen2.5vl:7b
Premier omni open : texte+image+audio+vidéo en entrée, texte+parole en sortie. Pas de tag Ollama officiel.
# GGUF : ggml-org/Qwen2.5-Omni-7B-GGUF (pas d'Ollama officiel)
Texte+image+audio → texte. Mixture-of-LoRAs, jusqu'à ~2.8h d'audio. Pas de tag Ollama officiel.
# Via HuggingFace : microsoft/Phi-4-multimodal-instruct (pas d'Ollama officiel)
Dense 7B 100% ouvert (poids + données + code). Transparence totale pour recherche.
ollama run olmo-3:7b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence | Sur RTX 5050 |
|---|---|---|---|---|---|---|
| #1 | Granite 4.0 H-Tiny 7B-A1B | 7B | 4 GB | 128 000 | Apache 2.0 | 60 tok/s · Q8 |
| #2 | Lucie 7B | 7B | 5 GB | 4 096 | Apache 2.0 | 12 tok/s · Q5_K_M |
| #3 | DeepSeek R1 Distill 7B | 7B | 5 GB | 32 768 | MIT | 12 tok/s · Q5_K_M |
| #4 | Qwen 2.5 VL 7B | 7B | 6 GB | 128 000 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #5 | Qwen 2.5 Omni 7B | 7B | 6 GB | 32 768 | Apache 2.0 | 8 tok/s · Q5_K_M |
| #6 | Phi-4 Multimodal 5.6B | 5.6B | 4 GB | 128 000 | MIT | 15 tok/s · Q8 |
| #7 | OLMo 3 7B | 7B | 5 GB | 8 192 | Apache 2.0 | 12 tok/s · Q5_K_M |
Filtre : Q4_K_M ≤ 6 Go (laisse marge contexte). Bonus 1-7B (peak budget) et ≤ 3B (très rapides). 320 Go/s suffit pour les 1-7B.
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
RTX 5050 : pertinent pour les LLM ?
Oui pour découvrir : Mistral 7B Q4 (~4,5 Go) à 28-32 tok/s, Llama 3.2 3B Q4 à 50+ tok/s. Pas pour du sérieux mais entry honnête. Pour un palier au-dessus, voir RTX 5060.
5050 vs 3060 12 Go d'occasion ?
3060 12 Go (~200 € occasion) = +4 Go VRAM mais GDDR6 360 Go/s (vs 5050 GDDR7 320 Go/s). Pour LLM, 3060 12 Go gagne (13B accessibles, modèles plus capables). Voir RTX 3060.
Faut-il préférer un Mac M4 16 Go ?
Mac M4 16 Go (~1100 € mini) = 16 Go unifié + silence. 5050 (~280 €) sur PC existant = bien moins cher. Pour découvrir le LLM local, 5050 sur PC actuel est la voie économique. Voir Mac 16 Go.
Quels modèles sweet spot 5050 ?
Phi-4 Mini 3,8B Q4 (40-50 tok/s), Llama 3.2 3B Q4 (50+ tok/s), Mistral 7B Q4 (28-32 tok/s). Évitez 13B+ — ne tiennent pas en 8 Go avec contexte large.
Approfondissez avec nos duels détaillés des finalistes :