最終更新:2025-05-18 (日) 04:19:54 (47d)
Llama 4
Top / Llama 4
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
パラメータ数 | アクティブパラメータ数 | エキスパート数 | ファイルサイズ (BF16) | |
Llama 4 Behemoth? | 2T | 288B | 16E | |
Llama 4 Maverick? | 400B | 17B | 128E | 835GB |
Llama 4 Scout? | 109B | 17B | 16E | 217GB |
Llama 4 Maverick?
- 単一のNVIDIA H100ホストに収まる
Llama 4 Scout?
- 単一のNVIDIA H100 GPU(Int4量子化)に収まる (80GB以内)
- Llama-4-Scout-17B-16E-Instruct?