local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Used for the default summarization and embedding models required by the server, specifically the snowflake-arctic-embed2 and llama3.1:8b models.
Referenced in the embedding model 'snowflake-arctic-embed2' that is used by default for document embedding.
🗄️ LLMS 向け LanceDB MCP サーバー
LanceDBのエージェント型RAGとハイブリッド検索を通じて、LLMがディスク上のドキュメントに直接アクセスできるようにするモデルコンテキストプロトコル(MCP)サーバー。LLMはデータセット全体または特定のドキュメントについて質問できます。
✨ 特徴
- 🔍 LanceDB を活用したサーバーレス ベクトル インデックスとドキュメント サマリー カタログ。
- 📊 LLMトークンの効率的な使用。LLM自体が必要な時に必要なものを検索します。
- 📈 セキュリティ。インデックスはローカルに保存されるため、ローカル LLM を使用する場合、データはクラウドに転送されません。
🚀 クイックスタート
まず、インデックスを保存するためのローカル ディレクトリを作成し、次の構成を Claude Desktop 構成ファイルに追加します。
MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
Windows : %APPDATA%/Claude/claude_desktop_config.json
前提条件
- Node.js 18歳以上
- npx
- MCP クライアント (例: Claude デスクトップ アプリ)
- 要約および埋め込みモデルがインストールされています(config.ts を参照 - デフォルトでは Ollama モデルを使用します)
ollama pull snowflake-arctic-embed2
ollama pull llama3.1:8b
デモ
ローカル開発モード:
npm run build
使用してプロジェクトをビルドします。
MCP ツール インスペクターを実行するには、 npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR
を使用します。
シードデータ
シードスクリプトはLanceDBに2つのテーブルを作成します。1つはドキュメントサマリーのカタログ用、もう1つはベクトル化されたドキュメントのチャンク用です。シードスクリプトを実行するには、以下のコマンドを使用します。
docs/ ディレクトリのサンプルデータをご利用いただけます。config.ts ファイルで、デフォルトの要約モデルと埋め込みモデルを自由に調整してください。インデックスを再作成する必要がある場合は、シードスクリプトを--overwrite
オプション付きで再実行してください。
カタログ
- 文書の概要
- メタデータ
チャンク
- ベクトル化されたドキュメントチャンク
- メタデータ
🎯 プロンプトの例
機能を確認するには、Claude と一緒に次のプロンプトを試してください。
📝 利用可能なツール
サーバーは、インデックスと対話するための次のツールを提供します。
カタログツール
catalog_search
: カタログ内の関連文書を検索する
チャンクツール
chunks_search
: カタログから特定のドキュメントに基づいて関連するチャンクを検索しますall_chunks_search
: すべての既知のドキュメントから関連するチャンクを検索する
📜 ライセンス
このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細についてはLICENSEファイルを参照してください。
This server cannot be installed
LanceDBのエージェント型RAGとハイブリッド検索を通じて、LLMがディスク上のドキュメントに直接アクセスできるようにするモデルコンテキストプロトコル(MCP)サーバー。LLMはデータセット全体または特定のドキュメントについて質問できます。