最終更新:2025-05-04 (日) 22:37:48 (71d)
LlamaIndex
Top / LlamaIndex
https://github.com/run-llama/llama_index
機能
- 既存のデータ ソースとデータ形式 (API、PDF、ドキュメント、SQL など) を取り込むためのデータ コネクタを提供
- データを LLM で簡単に使用できるように、データ (インデックス、グラフ) を構造化する方法を提供
- データに対する高度な取得/クエリ インターフェイスを提供
- 任意の LLM 入力プロンプトを入力すると、取得されたコンテキストと知識が拡張された出力が返される
- 外部アプリケーション フレームワーク (LangChain、Flask、Docker、ChatGPTなど) との簡単な統合が可能になる
ドキュメント
ユースケース
- LlamaIndex とコンテキスト拡張全般の一般的な使用例は次のとおりです。
- 質問応答(検索拡張生成、別名RAG)
- チャットボット
- 文書理解とデータ抽出
- 調査を実施し、行動を起こすことができる自律エージェント
- テキスト、画像、その他のデータタイプを組み合わせたマルチモーダルアプリケーション
- データに基づいてモデルを微調整し、パフォーマンスを向上させる
例
- pip install llama-index
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader documents = SimpleDirectoryReader("data").load_data() index = VectorStoreIndex.from_documents(documents) query_engine = index.as_query_engine() response = query_engine.query("Some question about the data should go here") print(response)