🇫🇷 Mistral Small 3
Le meilleur rapport qualité/taille en 2025. Rivalise avec les 70B.
ollama run mistral-small:24b
Pour les organisations qui veulent s'affranchir des modèles US ou chinois, l'offre européenne open-weights est riche en 2026 : Mistral AI (🇫🇷), Lucie (🇫🇷 CNRS/LINAGORA), Teuken (🇩🇪 OpenGPT-X), EuroLLM (🇪🇺 consortium UE), CroissantLLM (🇫🇷 bilingue). Classement par qualité + transparence.
Le meilleur rapport qualité/taille en 2025. Rivalise avec les 70B.
ollama run mistral-small:24b
Small 3 enrichi de la vision. 128k ctx, Apache 2.0. Small 3.2 (Juin 2025) disponible en update.
ollama run mistral-small3.1:24b
Spécialiste coding 24B Apache 2.0. 72.2% SWE-Bench. 256k ctx, FR lab.
ollama run devstral-small2:24b
Update Juin 2025 de Small 3.1. Moitié moins de générations infinies, function calling amélioré.
ollama run mistral-small3.2:24b
Premier raisonneur open Mistral. AIME24 70.7%. Base Small 3.1 + entraînement CoT.
ollama run magistral:24b
Codéveloppé avec NVIDIA. 128k ctx, Tekken tokenizer, fort en multilingue européen.
ollama run mistral-nemo:12b
LLM souverain francophone, entraîné sur corpus FR.
ollama run lucie:7b
Code 22B Mistral, 80+ langages. ⚠ Licence MNPL non-production — usage personnel/recherche.
ollama run codestral:22b
| Rang | Modèle | Params | VRAM Q4 | Contexte | Licence |
|---|---|---|---|---|---|
| #1 | Mistral Small 3 | 24B | 14 GB | 32 768 | Apache 2.0 |
| #2 | Mistral Small 3.1 24B | 24B | 14 GB | 128 000 | Apache 2.0 |
| #3 | Devstral Small 2 24B | 24B | 14 GB | 256 000 | Apache 2.0 |
| #4 | Mistral Small 3.2 24B | 24B | 14 GB | 128 000 | Apache 2.0 |
| #5 | Magistral Small 24B | 24B | 14 GB | 128 000 | Apache 2.0 |
| #6 | Mistral Nemo 12B Instruct | 12B | 7 GB | 128 000 | Apache 2.0 |
| #7 | Lucie 7B | 7B | 5 GB | 4 096 | Apache 2.0 |
| #8 | Codestral 22B v0.1 | 22B | 13 GB | 32 000 | Mistral Non-Production License |
Filtre : origine française OU auteur européen connu (Mistral, OpenLLM-France, OpenGPT-X, EuroLLM, etc.). Bonus souveraineté pour les modèles 100% FR avec corpus transparent (Lucie).
Critères pris en compte :
Le scoring est entièrement transparent : consultez notre méthodologie pour les détails de calcul VRAM/tokens/sec.
Pourquoi un LLM souverain européen ?
Souveraineté des données (pas d'envoi hors UE), conformité RGPD facilitée, alignement avec les valeurs européennes, résilience face aux changements de politique commerciale des US/Chine. Pour la défense, la santé, les administrations, c'est souvent un critère obligatoire.
Mistral AI est-il vraiment européen ?
Oui — entreprise française basée à Paris, fondée par d'anciens de Meta et DeepMind. Les modèles "Open" (7B, Small, Mixtral) sont sous Apache 2.0. Seuls les modèles "Commercial" (Large) sont propriétaires.
Lucie 7B est-il au niveau de Mistral 7B ?
Non, Lucie 7B est moins polyvalent en anglais et limité à 4k tokens de contexte. Mais c'est le seul modèle 100% souverain avec corpus d'entraînement entièrement documenté et public (Jean Zay / CNRS). Voir le comparatif.
Y a-t-il un LLM multilingue européen qui couvre les 24 langues UE ?
Oui — EuroLLM 9B et Teuken 7B sont entraînés explicitement sur les 24 langues officielles de l'UE. Ils sont moins bons en anglais qu'un Mistral mais excellent pour des usages cross-européens.
Approfondissez avec nos duels détaillés des finalistes :