最終更新:2026-02-26 (木) 00:06:06 (11d)
ローカルLLM/VRAM
ツール
重みの精度?
バイト ビット 倍精度 double 8 64 単精度 float/float32 4 32 普通はこれ 半精度 float16 2 16 INT8 8 INT4 4 GPTQ 3
VRAM
Hugging Face Llama Recipes
Llama 3.1
https://huggingface.co/blog/llama31
Model Size FP16? FP8 INT4? Llama 3.1 8B 16 GB 8 GB 4 GB Llama 3.1 70B 140 GB 70 GB 35 GB Llama 3.1 405B? 810 GB 405 GB 203 GB
Mistral AI
https://docs.mistral.ai/getting-started/models/weights/#sizes
Mistral 7B 16GB Mixtral 8x7B 100GB Mixtral 8x22B? 300GB Codestral 22B 60GB

