最終更新:2025-05-04 (日) 22:37:48 (71d)  

LlamaIndex
Top / LlamaIndex

https://www.llamaindex.ai/

https://github.com/run-llama/llama_index

機能

  • 既存のデータ ソースとデータ形式 (API、PDF、ドキュメント、SQL など) を取り込むためのデータ コネクタを提供
  • データを LLM で簡単に使用できるように、データ (インデックス、グラフ) を構造化する方法を提供
  • データに対する高度な取得/クエリ インターフェイスを提供
    • 任意の LLM 入力プロンプトを入力すると、取得されたコンテキストと知識が拡張された出力が返される
  • 外部アプリケーション フレームワーク (LangChainFlaskDockerChatGPTなど) との簡単な統合が可能になる

ドキュメント

ユースケース

  • LlamaIndex とコンテキスト拡張全般の一般的な使用例は次のとおりです。
  • 質問応答(検索拡張生成、別名RAG
  • チャットボット
  • 文書理解とデータ抽出
  • 調査を実施し、行動を起こすことができる自律エージェント
  • テキスト、画像、その他のデータタイプを組み合わせたマルチモーダルアプリケーション
  • データに基づいてモデルを微調整し、パフォーマンスを向上させる

  • pip install llama-index
    from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
    
    documents = SimpleDirectoryReader("data").load_data()
    index = VectorStoreIndex.from_documents(documents)
    query_engine = index.as_query_engine()
    response = query_engine.query("Some question about the data should go here")
    print(response)

LlamaIndex/ローカルLLM

関連