Navigation

AccueilConfigurateurCatalogueGuidesComparateurBenchmarksParcoursMeilleurs LLMMéthodologieÀ proposContribuer

Classements

Meilleur LLM local pour coder en 2026Meilleur LLM local en français en 2026Meilleur LLM local pour RAG en 2026Meilleur LLM local pour le raisonnement en 2026Meilleur LLM local avec vision en 2026Meilleur LLM local pour agents / tool-use en 2026Meilleur LLM sur RTX 4090 (24 GB) en 2026Meilleur LLM sur 16 GB de VRAM en 2026Meilleur LLM sur RTX 3060 (12 GB) en 2026Meilleur LLM en 8 GB de VRAM en 2026Meilleur LLM sur Mac Apple Silicon en 2026Meilleur LLM sans GPU (CPU only) en 2026Meilleur LLM local libre pour usage commercialMeilleur LLM souverain européen en 2026

Modèles populaires

Mistral 7B InstructMistral Small 3Mixtral 8x7BLucie 7BCroissantLLM 1.3BLlama 3.1 8BLlama 3.1 70BLlama 3.2 3BQwen 2.5 7BQwen 2.5 32BQwen 2.5 Coder 7BQwen 2.5 Coder 32BGemma 2 2BGemma 2 9BGemma 2 27BPhi-3.5 MiniPhi-4 14BDeepSeek R1 Distill 7BDeepSeek R1 Distill 32BDeepSeek Coder V2 Lite 16BLlama 3.2 Vision 11BQwen 2 VL 7BMistral Nemo 12B InstructMistral Small 3.1 24BLlama 3.3 70B InstructQwen 3 8BQwen 3 14BQwen 3 32BQwen 3 235B-A22BQwen 2.5 VL 7B

Guides populaires

Installer Ollama sur WindowsQuel LLM sur RTX 4090 (24 Go) ?Quel LLM sur RTX 5090 (32 Go) ?DeepSeek V4 Pro 1.6T : architecture, installation, benchmarksDémarrer avec LM StudioQuel LLM sur RTX 3060 12 Go ?DeepSeek V4 Flash 284B : le 1er frontier qui tient sur Mac StudioQuel LLM sur Mac mini M4 / M4 Pro (16–64 Go) ?Quel LLM sur RTX 3090 / 3090 Ti (24 Go) ?Quel LLM pour 12 Go de VRAM ?Quel LLM sur RTX 5070 Ti (16 Go) ?Quel LLM sur MacBook Pro M4 Pro / Max (24–128 Go) ?Quel LLM sur RTX 4070 / 4070 Super / 4070 Ti (12 Go) ?Quel LLM pour 8 Go de VRAM ?Les bases du promptingQuel LLM sur MacBook Pro M3 Pro / Max (18–128 Go) ?Quel LLM sur RTX 5080 (16 Go) ?Quel LLM pour 16 Go de VRAM ?Choisir son GPU pour l'IA localeRAG local : introductionQuel LLM sur Radeon RX 7900 XTX (24 Go) ?Copilot local avec Continue.devQuel LLM sur MacBook Air M4 (16 / 24 / 32 Go) ?Quel LLM sur Radeon RX 9070 XT (16 Go) ?Quel LLM sur MacBook Air M2 (8 / 16 / 24 Go) ?Quel LLM sur MacBook Air M1 (8 / 16 Go) ?Installer Ollama sur macOS (Apple Silicon)Votre première conversation localeOllama vs LM Studio vs Jan vs GPT4AllQuel LLM sur Mac Studio (M2 / M3 / M4 Ultra, 64–512 Go) ?

QuelLLM.fr — Site indépendant dédié aux LLM auto-hébergés pour le public francophone. Contenu sous licence ouverte.