Skip to main content
Glama

MCP Server for OpenSearch

by ibrooksSDX

mcp-server-opensearch: OpenSearch MCP サーバー

モデルコンテキストプロトコル(MCP)は、LLMアプリケーションと外部データソースおよびツールとのシームレスな統合を可能にするオープンプロトコルです。AI搭載IDEの構築、チャットインターフェースの拡張、カスタムAIワークフローの作成など、MCPはLLMと必要なコンテキストを接続する標準化された方法を提供します。

このリポジトリは、分散検索および分析エンジンであるOpenSearch用の MCP サーバーを作成する方法の例です。

建設中

画像1画像2

現在のブロッカー - OpenSearch の非同期クライアントがインストールされません

Open Search 非同期クライアントのドキュメント

pip install opensearch-py[async] zsh: no matches found: opensearch-py[async]

概要

OpenSearchエンジン内でメモリを保存および取得するための基本的なモデルコンテキストプロトコルサーバー。OpenSearchデータベース上のセマンティックメモリレイヤーとして機能します。

コンポーネント

ツール

  1. search-openSearch
    • OpenSearchデータベースにメモリを保存する
    • 入力:
      • query (json): 準備された json クエリ メッセージ
    • 戻り値: 確認メッセージ

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の mcp-server-opensearch を自動的にインストールするには:

npx -y @smithery/cli install @ibrooksSDX/mcp-server-opensearch --client claude

uvの使用(推奨)

uvを使用する場合*、 mcp-server-opensearch を*直接実行するために特別なインストールは必要ありません。

uv run mcp-server-opensearch \ --opensearch-url "http://localhost:9200" \ --index-name "my_index" \

または

uv run fastmcp run demo.py:main

テスト - ローカルオープンサーチクライアント

画像4

uv run python src/mcp-server-opensearch/test_opensearch.py

テスト - MCP サーバーから Open Search クライアントへの接続

画像1画像2

cd src/mcp-server-opensearch uv run fastmcp dev demo.py

Claude Desktopでの使用

このサーバーを Claude Desktop アプリで使用するには、 claude_desktop_config.jsonの「mcpServers」セクションに次の構成を追加します。

{ "opensearch": { "command": "uvx", "args": [ "mcp-server-opensearch", "--opensearch-url", "http://localhost:9200", "--opensearch-api-key", "your_api_key", "--index-name", "your_index_name" ] }, "Demo": { "command": "uv", "args": [ "run", "--with", "fastmcp", "--with", "opensearch-py", "fastmcp", "run", "/Users/ibrooks/Documents/GitHub/mcp-server-opensearch/src/mcp-server-opensearch/demo.py" ] } }

またはFastMCP UIを使用してサーバーをClaudeにインストールします

uv run fastmcp install demo.py

環境変数

サーバーの構成は環境変数を使用して行うこともできます。

  • OPENSEARCH_HOST : OpenSearch サーバーの URL (例http://localhost
  • OPENSEARCH_HOSTPORT : OpenSearch サーバーのホストのポート9200
  • INDEX_NAME : 使用するインデックスの名前
-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

LLM を OpenSearch と統合するセマンティック メモリ レイヤーを提供し、OpenSearch エンジン内でのメモリの保存と取得を可能にします。

  1. 建設中
    1. 現在のブロッカー - OpenSearch の非同期クライアントがインストールされません
    2. 概要
    3. コンポーネント
    4. インストール
    5. テスト - ローカルオープンサーチクライアント
    6. テスト - MCP サーバーから Open Search クライアントへの接続
    7. Claude Desktopでの使用
    8. 環境変数

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    Enables LLMs to perform semantic search and document management using ChromaDB, supporting natural language queries with intuitive similarity metrics for retrieval augmented generation applications.
    Last updated -
    Python
    • Apple
  • -
    security
    A
    license
    -
    quality
    Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
    Last updated -
    53
    Python
    MIT License
    • Linux
    • Apple
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server enabling LLMs to search, retrieve, and manage documents through Rememberizer's knowledge management API.
    Last updated -
    24
    Python
    Apache 2.0
  • -
    security
    -
    license
    -
    quality
    A long-term memory storage system for LLMs that helps them remember context across multiple sessions using semantic search with embeddings to provide relevant historical information from past interactions and development decisions.
    Last updated -
    3
    TypeScript
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ibrooksSDX/mcp-server-opensearch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server