Navigation

  • Accueil
  • Configurateur
  • Catalogue
  • Guides
  • Comparateur
  • Benchmarks
  • Parcours
  • Meilleurs LLM
  • Méthodologie
  • À propos
  • Contribuer

Modèles populaires

  • Mistral 7B Instruct
  • Mistral Small 3
  • Mixtral 8x7B
  • Lucie 7B
  • CroissantLLM 1.3B
  • Llama 3.1 8B
  • Llama 3.1 70B
  • Llama 3.2 3B
  • Qwen 2.5 7B
  • Qwen 2.5 32B
  • Qwen 2.5 Coder 7B
  • Qwen 2.5 Coder 32B
  • Gemma 2 2B
  • Gemma 2 9B
  • Gemma 2 27B
  • Phi-3.5 Mini
  • Phi-4 14B
  • DeepSeek R1 Distill 7B
  • DeepSeek R1 Distill 32B
  • DeepSeek Coder V2 Lite 16B
  • Llama 3.2 Vision 11B
  • Qwen 2 VL 7B
  • Mistral Nemo 12B Instruct
  • Mistral Small 3.1 24B
  • Llama 3.3 70B Instruct
  • Qwen 3 8B
  • Qwen 3 14B
  • Qwen 3 32B
  • Qwen 3 235B-A22B
  • Qwen 2.5 VL 7B

Guides populaires

  • Installer Ollama sur Windows
  • Quel LLM sur RTX 4090 (24 Go) ?
  • Quel LLM sur RTX 5090 (32 Go) ?
  • DeepSeek V4 Pro 1.6T : architecture, installation, benchmarks
  • Démarrer avec LM Studio
  • Quel LLM sur RTX 3060 12 Go ?
  • DeepSeek V4 Flash 284B : le 1er frontier qui tient sur Mac Studio
  • Quel LLM sur Mac mini M4 / M4 Pro (16–64 Go) ?
  • Quel LLM sur RTX 3090 / 3090 Ti (24 Go) ?
  • Quel LLM sur RTX 5070 Ti (16 Go) ?
  • Quel LLM sur MacBook Pro M4 Pro / Max (24–128 Go) ?
  • Quel LLM sur RTX 4070 / 4070 Super / 4070 Ti (12 Go) ?
  • Les bases du prompting
  • Quel LLM sur MacBook Pro M3 Pro / Max (18–128 Go) ?
  • Quel LLM sur RTX 5080 (16 Go) ?
  • Choisir son GPU pour l'IA locale
  • RAG local : introduction
  • Copilot local avec Continue.dev
  • Quel LLM sur MacBook Air M4 (16 / 24 / 32 Go) ?
  • Quel LLM sur MacBook Air M2 (8 / 16 / 24 Go) ?
  • Quel LLM sur MacBook Air M1 (8 / 16 Go) ?
  • Installer Ollama sur macOS (Apple Silicon)
  • Votre première conversation locale
  • Ollama vs LM Studio vs Jan vs GPT4All
  • Quel LLM sur Mac Studio (M2 / M3 / M4 Ultra, 64–512 Go) ?
  • Quel LLM sur RTX 4080 / 4080 Super (16 Go) ?
  • Installer Ollama sur Linux
  • Quel LLM sur MacBook Air M3 (8 / 16 / 24 Go) ?
  • Quel LLM sur RTX 4060 Ti (8 / 16 Go) ?
  • Quel LLM sur RTX 5070 (12 Go) ?

Classements

  • Meilleur LLM local pour coder en 2026 — classement open-source
  • Meilleur LLM local pour le français en 2026 — souveraineté et qualité
  • Meilleur LLM local pour RAG en 2026 — contexte long, retrieval
  • Meilleur LLM local pour le raisonnement en 2026 — maths, logique, code
  • Meilleur LLM multimodal local en 2026 — vision et analyse d'image
  • Meilleur LLM local pour agents et tool-use en 2026
  • Meilleur LLM sur RTX 4090 (24 GB) en 2026 — classement VRAM
  • Meilleur LLM sur RTX 4080 / 5080 (16 GB) en 2026
  • Meilleur LLM sur RTX 3060 12 GB en 2026 — budget serré
  • Meilleur LLM en 8 GB de VRAM en 2026 — RTX 3060 8GB, 4060
  • Meilleur LLM sur Mac Apple Silicon (M1, M2, M3, M4) en 2026
  • Meilleur LLM sans GPU (CPU only) en 2026 — RAM seule
  • Meilleur LLM open-source libre pour usage commercial en 2026
  • Meilleur LLM souverain européen en 2026 — Mistral, Lucie, Teuken, EuroLLM

QuelLLM.fr — Site indépendant dédié aux LLM auto-hébergés pour le public francophone. Contenu sous licence ouverte.