QuelLLMFR Analyser ma config →
Accueil Comparateur Mistral Small 3.1 24B vs Mistral Small 3

Mistral Small 3.1 24BvsMistral Small 3

Comparatif complet entre Mistral Small 3.1 24B (24B paramètres, Mistral AI) et Mistral Small 3 (24B, Mistral AI). VRAM requise par quantification, tokens/seconde mesurés sur 4 GPU de référence, verdict par cas d'usage, licence, commandes d'installation. Tous les chiffres sont calculés à partir des données du catalogue — aucun copier-coller entre pages.

En bref

Caractéristique Mistral Small 3.1 24B Mistral Small 3
Paramètres 24B 24B
Famille Mistral Mistral
Auteur Mistral AI Mistral AI
Origine FR FR
Licence Apache 2.0 Apache 2.0
Contexte 128 000 tokens 32 768 tokens
Sortie Mars 2025 Janvier 2025

Empreinte mémoire

VRAM approximative nécessaire pour l'inférence avec une fenêtre de contexte moyenne. Le vainqueur (en vert) est le modèle qui consomme moins — avantage aux petits.

Quantification Mistral Small 3.1 24B Mistral Small 3
Q4_K_M (léger) 14 GB 14 GB
Q5_K_M (équilibre) 17 GB 17 GB
Q8 (quasi-lossless) 26 GB 26 GB
FP16 (qualité max) 48 GB 48 GB
RAM CPU-only 24 GB 24 GB

Vitesse estimée (tokens/seconde)

Estimations basées sur la meilleure quantification tenable sur chaque GPU. Les chiffres réels dépendent du prompt, du contexte et du moteur (llama.cpp, vLLM, MLX). Méthodologie.

GPU de référence Mistral Small 3.1 24B Mistral Small 3
RTX 4090 (24 GB) 40 tok/s · Q5_K_M 40 tok/s · Q5_K_M
RTX 4080 (16 GB) 15 tok/s · Q4_K_M 15 tok/s · Q4_K_M
RTX 3060 12GB (12 GB) ✗ trop lourd ✗ trop lourd
Apple M4 Pro (48 GB) (36 GB) 15 tok/s · Q8 15 tok/s · Q8

Verdict par cas d'usage

Pour chaque usage courant, on indique lequel des deux est le mieux adapté selon ses tags, sa taille et sa spécialisation.

Chat général
Match serré — dépend du cas précis. Les deux se valent sur ce critère, tranchez selon vos contraintes VRAM ou de licence.
Développement / code
Mistral Small 3 l'emporte. Modèle spécialisé code, meilleur sur HumanEval et MBPP.
Français soutenu
Match serré — dépend du cas précis. Les deux se valent sur ce critère, tranchez selon vos contraintes VRAM ou de licence.
Vision / image
Mistral Small 3.1 24B l'emporte. Supporte nativement les entrées image.
RAG / documents longs
Match serré — dépend du cas précis. Les deux se valent sur ce critère, tranchez selon vos contraintes VRAM ou de licence.
Agents & tool-use
Match serré — dépend du cas précis. Les deux se valent sur ce critère, tranchez selon vos contraintes VRAM ou de licence.

Forces et faiblesses

Mistral AI · 24B

Mistral Small 3.1 24B

Small 3 enrichi de la vision. 128k ctx, Apache 2.0. Small 3.2 (Juin 2025) disponible en update.

  • Vision + texte dans un 24B
  • 128k ctx
  • Apache 2.0
  • ~150 tok/s en inférence
  • Exige Ollama ≥ 0.6.5
  • Small 3.2 (Juin 2025) l'améliore légèrement

Installation

ollama run mistral-small3.1:24b
Mistral AI · 24B

Mistral Small 3

Le meilleur rapport qualité/taille en 2025. Rivalise avec les 70B.

  • Qualité proche Llama 70B
  • Latence faible
  • 128k contexte
  • Excellent en agents et tool use
  • Exige 16 GB de VRAM mini en Q4
  • Moins bon en code que Qwen Coder

Installation

ollama run mistral-small:24b

Questions fréquentes

Quel modèle tourne le mieux sur RTX 4090 (24 GB) : Mistral Small 3.1 24B ou Mistral Small 3 ?

Sur une RTX 4090, Mistral Small 3.1 24B tourne en Q5_K_M (~40 tok/s), Mistral Small 3 en Q5_K_M (~40 tok/s). En pur débit, Mistral Small 3 l'emporte. Consultez le configurateur pour tester votre GPU exact.

Mistral Small 3.1 24B ou Mistral Small 3 : lequel est le meilleur en français ?

En français, les deux s'équivalent pour du chat basique. Pour des textes littéraires ou juridiques, préférez un modèle d'origine européenne (voir nos guides FR).

Lequel consomme le moins de VRAM ?

Les deux demandent la même VRAM en Q4 (14 GB). Le choix se fait alors sur la licence ou la qualité perçue.

Mistral Small 3.1 24B ou Mistral Small 3 pour coder ?

Mistral Small 3 est le plus adapté (spécialisé code, meilleurs scores HumanEval). Pour un copilote IDE, couplez-le à Continue ou Aider.

Peut-on utiliser ces modèles en production commerciale ?

Mistral Small 3.1 24B est sous Apache 2.0 — libre d'utilisation commerciale. Mistral Small 3 est sous Apache 2.0 — libre également. Pour du SaaS, privilégiez Apache 2.0 ou MIT.

Lequel choisir en 2026 ?

Dépend de votre contrainte principale. Plus petit / plus rapide : Mistral Small 3.1 24B (24B). Plus capable : Mistral Small 3.1 24B (24B). Si vous hésitez, lancez le configurateur avec votre GPU et votre cas d'usage — il tranchera en fonction des deux.

Alternatives à considérer

Si aucun des deux ne vous convient, voici les modèles voisins que vous pourriez explorer.

Pour aller plus loin