最終更新:2025-05-18 (日) 04:19:54 (47d)  

Llama 4
Top / Llama 4

https://ai.meta.com/blog/llama-4-multimodal-intelligence/

パラメータ数アクティブパラメータ数エキスパート数ファイルサイズ (BF16)
Llama 4 Behemoth?2T288B16E
Llama 4 Maverick?400B17B128E835GB
Llama 4 Scout?109B17B16E217GB

Llama 4 Maverick?

Llama 4 Scout?

  • 単一のNVIDIA H100 GPU(Int4量子化)に収まる (80GB以内)
    Q3_K_M?約55GBのRAM/VRAMが必要
    Q4_K_M約68GBのRAM/VRAMが必要67GB
    Q8_0?117GB
    F16?217GB
  • Llama-4-Scout-17B-16E-Instruct?

参考