gpt-oss 20BvsTrinity Mini 26B-A3B
Comparatif complet entre gpt-oss 20B (21B paramètres, OpenAI) et Trinity Mini 26B-A3B (26B, Arcee AI). VRAM requise par quantification, tokens/seconde mesurés sur 4 GPU de référence, verdict par cas d'usage, licence, commandes d'installation. Tous les chiffres sont calculés à partir des données du catalogue — aucun copier-coller entre pages.
En bref
| Caractéristique | gpt-oss 20B | Trinity Mini 26B-A3B |
|---|---|---|
| Paramètres | 21B | 26B |
| Famille | gpt-oss | Trinity |
| Auteur | OpenAI | Arcee AI |
| Origine | US | US |
| Licence | Apache 2.0 | Apache 2.0 |
| Contexte | 128 000 tokens | 131 072 tokens |
| Sortie | Avril 2025 | Mars 2025 |
Empreinte mémoire
VRAM approximative nécessaire pour l'inférence avec une fenêtre de contexte moyenne. Le vainqueur (en vert) est le modèle qui consomme moins — avantage aux petits.
| Quantification | gpt-oss 20B | Trinity Mini 26B-A3B |
|---|---|---|
| Q4_K_M (léger) | 13 GB | 15 GB |
| Q5_K_M (équilibre) | 16 GB | 18 GB |
| Q8 (quasi-lossless) | 23 GB | 28 GB |
| FP16 (qualité max) | 42 GB | 52 GB |
| RAM CPU-only | 18 GB | 24 GB |
Vitesse estimée (tokens/seconde)
Estimations basées sur la meilleure quantification tenable sur chaque GPU. Les chiffres réels dépendent du prompt, du contexte et du moteur (llama.cpp, vLLM, MLX). Méthodologie.
| GPU de référence | gpt-oss 20B | Trinity Mini 26B-A3B |
|---|---|---|
| RTX 4090 (24 GB) | 130 tok/s · Q8 | 100 tok/s · Q5_K_M |
| RTX 4080 (16 GB) | 55 tok/s · Q5_K_M | 40 tok/s · Q4_K_M |
| RTX 3060 12GB (12 GB) | ✗ trop lourd | ✗ trop lourd |
| Apple M4 Pro (48 GB) (36 GB) | 55 tok/s · Q8 | 40 tok/s · Q8 |
Verdict par cas d'usage
Pour chaque usage courant, on indique lequel des deux est le mieux adapté selon ses tags, sa taille et sa spécialisation.
Forces et faiblesses
gpt-oss 20B
Petit frère de gpt-oss 120B. 21B/3.6B actifs. Égale o3-mini sur laptop.
- Licence MIT
- 13 Go VRAM Q4
- Qualité OpenAI en format accessible
- 128k contexte
- MoE — plus VRAM que dense équivalent
- Moins de fine-tunes que Llama/Qwen
Installation
Trinity Mini 26B-A3B
MoE 26B/3B actifs par labo US. Rapide grâce aux 3B actifs. Apache 2.0.
- MoE efficace (3.5B actifs)
- 131k contexte
- Bon en agents
- Apache 2.0
- Peu de benchmarks publics
- Moins connu que Mistral/Qwen
Installation
Questions fréquentes
Quel modèle tourne le mieux sur RTX 4090 (24 GB) : gpt-oss 20B ou Trinity Mini 26B-A3B ?
Sur une RTX 4090, gpt-oss 20B tourne en Q8 (~130 tok/s), Trinity Mini 26B-A3B en Q5_K_M (~100 tok/s). En pur débit, gpt-oss 20B l'emporte. Consultez le configurateur pour tester votre GPU exact.
Lequel consomme le moins de VRAM ?
En Q4_K_M, gpt-oss 20B tient en 13 GB contre 15 GB pour son rival — un écart de 2 GB, significatif si vous visez une RTX 3060 ou une 4060 Ti 8 GB.
Peut-on utiliser ces modèles en production commerciale ?
gpt-oss 20B est sous Apache 2.0 — libre d'utilisation commerciale. Trinity Mini 26B-A3B est sous Apache 2.0 — libre également. Pour du SaaS, privilégiez Apache 2.0 ou MIT.
Lequel choisir en 2026 ?
Dépend de votre contrainte principale. Plus petit / plus rapide : gpt-oss 20B (21B). Plus capable : Trinity Mini 26B-A3B (26B). Si vous hésitez, lancez le configurateur avec votre GPU et votre cas d'usage — il tranchera en fonction des deux.
Alternatives à considérer
Si aucun des deux ne vous convient, voici les modèles voisins que vous pourriez explorer.