最終更新:2025-02-05 (水) 14:53:24 (2d)
ローカルLLM/GUI
フロントエンド
Jan
- バックエンド:
LM Studio
Text generation web UI
- git clone+バッチの実行でインストール
- ブラウザ経由
- バッチで起動
- モデルはURL指定でDL (Hugging FaceのURL)
- 基本のバックエンド:
- Transformers (デフォルト)
- llama.cpp
- ExLlamaV2
LocalAI
Ollama+フロントエンド
Open WebUI
- Python 3.11が必要
- ブラウザ経由
- pip installでインストール
- open-webui serveで起動