最終更新:2026-02-26 (木) 22:18:37 (10d)  

Qwen3.5-35B-A3B
Top / Qwen3.5-35B-A3B

https://huggingface.co/Qwen/Qwen3.5-35B-A3B

LM Studio

qwen/qwen3.5-35b-a3b

Unsloth

lmstudio-community

https://huggingface.co/lmstudio-community/Qwen3.5-27B-GGUF

mlx-community

Unsloth

  • GeForce RTX 3090で40レイヤをGPUにロードするとgeneration failedになることがある (85tok/sくらい出るが多分途中でVRAM不足)
  • 38レイヤだとOK (26tok/s) -> VRAM 21.7GB

Thinkingのオンオフ

LM Studio

llama.cpp

メモ

比較