LFM2 24B
LFM2 24B (24B, LFM Open License v1.0) : VRAM requise par quantization, tokens/seconde mesurés, cas d'usage. LFM2 24B (Liquid AI) : Liquid Foundation Model dense, 32k contexte, 14 Go VRAM Q4, alternative compacte aux 30B Apache. Sortie mars 2026.
Activez JavaScript pour accéder au configurateur interactif et à la bibliothèque de guides.