GLM-OCR 0.9B
GLM-OCR 0.9B (0.9B, MIT) : VRAM requise par quantization, tokens/seconde mesurés, cas d'usage. GLM-OCR (0.9B Zhipu/THUDM) : modèle vision OCR ultra-compact, 0.5 Go VRAM Q4, 128k contexte, extraction documents et code. Sortie février 2026.
Activez JavaScript pour accéder au configurateur interactif et à la bibliothèque de guides.