最終更新:2025-05-19 (月) 11:17:15 (47d)
LLM/モデル
LLM/モデル/ベンチマーク
LLM/モデル/日本語
モデル地図
オープン
Meta
Microsoft
2025/04/30 Phi-4-reasoning 14B 2025/04/30 Phi-4-reasoning-plus? 14B 2025/04/30 Phi-4-mini-reasoning 3.8B 2025/02/26 Phi-4-mini 3.8B 2025/02/26 Phi-4-multimodal 5.6B 2024/12/12 Phi-4 14B 2024/05/21 Phi-3-vision 4.2B 2024/04/23 Phi-3 3.8/7B/14B 2023/12/12 Phi-2? 2.7B 2023/09 Phi-1.5? 1.3B 2023/06 Phi-1? 1.3B
Alibaba Cloud
Amazon
Amazon Nova Pro?
サービス
形式
GGUF/ggml
Transformers
- しばらく前から存在しており、AI モデルのほぼ普遍的な標準ですが、そのモデルは消費者向けハードウェアで実行するために最適化されておらず、必要以上に多くのリソースを使用します。
- およそ、GGUF の平均的な 7B モデルには 4GB 以上の RAM が必要ですが、Transformers の 7B モデルには 16GB 以上が必要になる可能性があります。