最終更新:2024-03-13 (水) 00:19:51 (50d)
Mixtral
Top / Mixtral
https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1
Mixtral 8x7B?
- このモデルは総パラメータ46.7Bを含むが、その3分の1のサイズのモデルと同じスピードとコストで推論を処理できる。
- いくつかのLLMベンチマークでは、Llama 2 70BとGPT-3.5の両方を上回った。