最終更新:2025-05-19 (月) 10:40:29 (52d)
ローカルLLM
Top / ローカルLLM
LLM/バックエンド
Transformers (137k)
llama.cpp (69k)
vLLM (32.4k)
メモ
LLM/フロントエンド
ローカルLLM/GUI
Ollama (104k)
- バックエンド:llama.cpp (69k)
- フロントエンド: Open WebUI (52.5k)
Text generation web UI (41.2k)
GPT4All (71.3k)
- Run Local LLMs on Any Device.
- llama.cpp
FastChat (37.5k)
LocalAI (28.6k)
- llama.cpp
- gpt4all.cpp?
- whisper.cpp
- Coqui
- Bark
- Piper
- Parler-TTS
- stable-diffusion.cpp
- Diffusers
llamafile (21k)
- 1ファイル (llama.cpp)
LM Studio (コード非公開)
- Discover, download, and run local LLMs
Open WebUI (52.5k)
- User-friendly AI Interface (Supports Ollama, OpenAI API, ...)