最終更新:2025-01-23 (木) 14:11:48 (15d)
ローカルLLM
Top / ローカルLLM
バックエンド
Transformers (137k)
llama.cpp (69k)
vLLM (32.4k)
メモ
フロントエンド
ローカルLLM/GUI
Ollama (104k)
- バックエンド:llama.cpp (69k)
- フロントエンド: Open WebUI (52.5k)
Text generation web UI (41.2k)
GPT4All (71.3k)
- Run Local LLMs on Any Device.
- llama.cpp
FastChat (37.5k)
LocalAI (28.6k)
- llama.cpp
- gpt4all.cpp?
- whisper.cpp
- Coqui
- Bark?
- Piper
- Parler-TTS
- stable-diffusion.cpp
- Diffusers
llamafile (21k)
- 1ファイル (llama.cpp)
LM Studio (コード非公開)
- Discover, download, and run local LLMs
Open WebUI (52.5k)
- User-friendly AI Interface (Supports Ollama, OpenAI API, ...)