最終更新:2025-05-10 (土) 05:37:38 (5d)
Qwen3
Top / Qwen3
https://github.com/QwenLM/Qwen3
https://qwenlm.github.io/blog/qwen3/
思考
- デフォルトでは、Qwen3モデルは応答前に考えます。これは次のように制御できます。
transformers.AutoTokenizer
- モデルが思考コンテンツを生成するのが厳密に防止されます。
- AutoTokenizer.apply_chat_template
- enable_thinking = False
/thinkおよび/no_think指示
- システムまたはユーザーメッセージでこれらの単語を使用することで、Qwen3が考える必要があるかどうかを指示します。複数ターンの会話では、最新の指示に従います。
モデル
- 0.6B, 1.7B, 4B, 8B, 14B, 32B and 30B-A3B, 235B-A22B
MoE
Qwen3-235B-A22B 約470GB (BF16) Qwen3-30B-A3B
Qwen3-235B-A22B
- 総パラメータ数2350億(235B)、有効パラメータ数220億(22B)
Qwen3-30B-A3B
- 総パラメータ数300億(30B)、有効パラメータ数30億(3B)
https://huggingface.co/lmstudio-community/Qwen3-30B-A3B-GGUF
Dense
Qwen3-32B
量子化
- AWQ/GGUF
Qwen3-32B-AWQ? Qwen3-32B-GGUF Qwen3-14B-AWQ? Qwen3-14B-GGUF
メモ
- 事前学習
- データセット規模:36兆トークン(Qwen2.5の約2倍)
- ソース:ウェブ+PDFドキュメント抽出+合成データ(数式・コード生成)
ベンチマーク
Local ChatGPT with thinking UI
パラメータのベストプラクティス
https://x.com/Alibaba_Qwen/status/1920870536856395902
https://x.com/jandotai/status/1920644904226861134
- With thinking: Temp 0.6, TopP 0.95, TopK 20, 32,768 tokens max
- Without thinking: Temp 0.7, TopP 0.8, TopK 20