Skip to main content
Glama

MCP Server for OpenSearch

by ibrooksSDX

mcp-server-opensearch: OpenSearch MCP 서버

모델 컨텍스트 프로토콜(MCP) 은 LLM 애플리케이션과 외부 데이터 소스 및 도구 간의 원활한 통합을 지원하는 개방형 프로토콜입니다. AI 기반 IDE를 구축하거나, 채팅 인터페이스를 개선하거나, 맞춤형 AI 워크플로를 만드는 경우, MCP는 LLM을 필요한 컨텍스트에 연결하는 표준화된 방법을 제공합니다.

이 저장소는 분산 검색 및 분석 엔진인 OpenSearch를 위한 MCP 서버를 만드는 방법의 예입니다.

공사 중

이미지1이미지2

현재 차단기 - OpenSearch의 비동기 클라이언트가 설치되지 않습니다.

검색 비동기 클라이언트 문서 열기

지엑스피1

개요

OpenSearch 엔진에서 메모리를 보관하고 검색하는 기본 모델 컨텍스트 프로토콜 서버입니다. OpenSearch 데이터베이스 위에서 의미론적 메모리 계층 역할을 합니다.

구성 요소

도구

  1. search-openSearch
    • OpenSearch 데이터베이스에 메모리 저장
    • 입력:
      • query (json): 준비된 json 쿼리 메시지
    • 반환: 확인 메시지

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop용 mcp-server-opensearch를 자동으로 설치하려면:

npx -y @smithery/cli install @ibrooksSDX/mcp-server-opensearch --client claude

uv 사용(권장)

uv 사용하면 mcp-server-opensearch를 직접 실행하기 위해 특별한 설치가 필요하지 않습니다.

uv run mcp-server-opensearch \ --opensearch-url "http://localhost:9200" \ --index-name "my_index" \

또는

uv run fastmcp run demo.py:main

테스트 - 로컬 오픈 검색 클라이언트

이미지4

uv run python src/mcp-server-opensearch/test_opensearch.py

테스트 - MCP 서버와 Open Search 클라이언트 연결

이미지1이미지2

cd src/mcp-server-opensearch uv run fastmcp dev demo.py

Claude Desktop과 함께 사용

Claude Desktop 앱과 함께 이 서버를 사용하려면 claude_desktop_config.json 의 "mcpServers" 섹션에 다음 구성을 추가하세요.

{ "opensearch": { "command": "uvx", "args": [ "mcp-server-opensearch", "--opensearch-url", "http://localhost:9200", "--opensearch-api-key", "your_api_key", "--index-name", "your_index_name" ] }, "Demo": { "command": "uv", "args": [ "run", "--with", "fastmcp", "--with", "opensearch-py", "fastmcp", "run", "/Users/ibrooks/Documents/GitHub/mcp-server-opensearch/src/mcp-server-opensearch/demo.py" ] } }

또는 FastMCP UI를 사용하여 Claude에 서버를 설치합니다.

uv run fastmcp install demo.py

환경 변수

서버 구성은 환경 변수를 사용하여 수행할 수도 있습니다.

  • OPENSEARCH_HOST : OpenSearch 서버의 URL, 예 http://localhost
  • OPENSEARCH_HOSTPORT : OpenSearch 서버 호스트의 포트 9200
  • INDEX_NAME : 사용할 인덱스의 이름
-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

LLM을 OpenSearch와 통합하는 의미 메모리 계층을 제공하여 OpenSearch 엔진 내에서 메모리를 저장하고 검색할 수 있도록 합니다.

  1. 공사 중
    1. 현재 차단기 - OpenSearch의 비동기 클라이언트가 설치되지 않습니다.
    2. 개요
    3. 구성 요소
    4. 설치
    5. 테스트 - 로컬 오픈 검색 클라이언트
    6. 테스트 - MCP 서버와 Open Search 클라이언트 연결
    7. Claude Desktop과 함께 사용
    8. 환경 변수

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    Enables LLMs to perform semantic search and document management using ChromaDB, supporting natural language queries with intuitive similarity metrics for retrieval augmented generation applications.
    Last updated -
    Python
    • Apple
  • -
    security
    A
    license
    -
    quality
    Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
    Last updated -
    53
    Python
    MIT License
    • Linux
    • Apple
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server enabling LLMs to search, retrieve, and manage documents through Rememberizer's knowledge management API.
    Last updated -
    24
    Python
    Apache 2.0
  • -
    security
    -
    license
    -
    quality
    A long-term memory storage system for LLMs that helps them remember context across multiple sessions using semantic search with embeddings to provide relevant historical information from past interactions and development decisions.
    Last updated -
    3
    TypeScript
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ibrooksSDX/mcp-server-opensearch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server