最終更新:2025-01-23 (木) 07:36:09 (25d)  

LLM/モデル
Top / LLM / モデル

LLM/モデル/ベンチマーク

オープン

Meta

Microsoft

  • 2024/12/12Phi-414B
    2024/05/21Phi-3-vision4.2B
    2024/04/23Phi-33.8/7B/14B
    2023/12/12Phi-2?2.7B
    2023/09Phi-1.5?1.3B
    2023/06Phi-1?1.3B

Alibaba Cloud

  • 2024/09/19Qwen2.50.5B/1.5B/3B/7B/14B/32B/72B
    2024/06/06Qwen20.5B/1.5B/7B/57B-A14B/72B
    2024/03/28Qwen1.5-MoE?
    2024/02/05Qwen1.5
    2023/08/03Qwen

Amazon

  • Amazon Nova Pro?

サービス

形式

GGUF/ggml

Transformers

  • しばらく前から存在しており、AI モデルのほぼ普遍的な標準ですが、そのモデルは消費者向けハードウェアで実行するために最適化されておらず、必要以上に多くのリソースを使用します。
  • およそ、GGUF の平均的な 7B モデルには 4GB 以上の RAM が必要ですが、Transformers の 7B モデルには 16GB 以上が必要になる可能性があります。

GPTQ

アプリ別

関連

参考