最終更新:2025-05-19 (月) 11:17:15 (47d)  

LLM/モデル
Top / LLM / モデル

LLM/モデル/ベンチマーク

LLM/モデル/日本語

モデル地図

オープン

Meta

Microsoft

Alibaba Cloud

  • Qwen
    2025/04/29Qwen30.6B, 1.7B, 4B, 8B, 14B, 32B and 30B-A3B, 235B-A22B
    2024/09/19Qwen2.50.5B/1.5B/3B/7B/14B/32B/72B
    2024/06/06Qwen20.5B/1.5B/7B/57B-A14B/72B
    2024/03/28Qwen1.5-MoE?
    2024/02/05Qwen1.5
    2023/08/03Qwen

Amazon

  • Amazon Nova Pro?

サービス

形式

GGUF/ggml

Transformers

  • しばらく前から存在しており、AI モデルのほぼ普遍的な標準ですが、そのモデルは消費者向けハードウェアで実行するために最適化されておらず、必要以上に多くのリソースを使用します。
  • およそ、GGUF の平均的な 7B モデルには 4GB 以上の RAM が必要ですが、Transformers の 7B モデルには 16GB 以上が必要になる可能性があります。

GPTQ

アプリ別

関連

参考