Skip to main content
Glama

MCP Server for OpenSearch

by ibrooksSDX

El Protocolo de Contexto de Modelo (MCP) es un protocolo abierto que permite una integración fluida entre las aplicaciones LLM y las fuentes de datos y herramientas externas. Ya sea que esté creando un IDE basado en IA, mejorando una interfaz de chat o creando flujos de trabajo de IA personalizados, MCP proporciona una forma estandarizada de conectar las aplicaciones LLM con el contexto que necesitan.

Este repositorio es un ejemplo de cómo crear un servidor MCP para OpenSearch , un motor de búsqueda y análisis distribuido.

En construcción

imagen1imagen2

Bloqueador actual: el cliente asincrónico de OpenSearch no se instala

Documentos del cliente asincrónico de búsqueda abierta

pip install opensearch-py[async] zsh: no matches found: opensearch-py[async]

Descripción general

Un servidor básico del Protocolo de Contexto de Modelo para almacenar y recuperar memorias en el motor de búsqueda OpenSearch. Actúa como una capa de memoria semántica sobre la base de datos de OpenSearch.

Componentes

Herramientas

  1. search-openSearch
    • Almacenar una memoria en la base de datos de OpenSearch
    • Aporte:
      • query (json): mensaje de consulta json preparado
    • Devoluciones: Mensaje de confirmación

Instalación

Instalación mediante herrería

Para instalar mcp-server-opensearch para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @ibrooksSDX/mcp-server-opensearch --client claude

Uso de uv (recomendado)

Al utilizar uv no se necesita ninguna instalación específica para ejecutar directamente mcp-server-opensearch .

uv run mcp-server-opensearch \ --opensearch-url "http://localhost:9200" \ --index-name "my_index" \

o

uv run fastmcp run demo.py:main

Pruebas - Cliente de búsqueda abierta local

imagen4

uv run python src/mcp-server-opensearch/test_opensearch.py

Pruebas: Conexión del servidor MCP al cliente de búsqueda abierta

imagen1imagen2

cd src/mcp-server-opensearch uv run fastmcp dev demo.py

Uso con Claude Desktop

Para usar este servidor con la aplicación Claude Desktop, agregue la siguiente configuración a la sección "mcpServers" de su claude_desktop_config.json :

{ "opensearch": { "command": "uvx", "args": [ "mcp-server-opensearch", "--opensearch-url", "http://localhost:9200", "--opensearch-api-key", "your_api_key", "--index-name", "your_index_name" ] }, "Demo": { "command": "uv", "args": [ "run", "--with", "fastmcp", "--with", "opensearch-py", "fastmcp", "run", "/Users/ibrooks/Documents/GitHub/mcp-server-opensearch/src/mcp-server-opensearch/demo.py" ] } }

O utilice la interfaz de usuario FastMCP para instalar el servidor en Claude

uv run fastmcp install demo.py

Variables de entorno

La configuración del servidor también se puede realizar mediante variables de entorno:

  • OPENSEARCH_HOST : URL del servidor OpenSearch, por ejemplo http://localhost
  • OPENSEARCH_HOSTPORT : Puerto del host del servidor OpenSearch 9200
  • INDEX_NAME : Nombre del índice a utilizar
-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Proporciona una capa de memoria semántica que integra LLM con OpenSearch, lo que permite el almacenamiento y la recuperación de memorias dentro del motor OpenSearch.

  1. En construcción
    1. Bloqueador actual: el cliente asincrónico de OpenSearch no se instala
    2. Descripción general
    3. Componentes
    4. Instalación
    5. Pruebas - Cliente de búsqueda abierta local
    6. Pruebas: Conexión del servidor MCP al cliente de búsqueda abierta
    7. Uso con Claude Desktop
    8. Variables de entorno

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    Enables LLMs to perform semantic search and document management using ChromaDB, supporting natural language queries with intuitive similarity metrics for retrieval augmented generation applications.
    Last updated -
    Python
    • Apple
  • -
    security
    A
    license
    -
    quality
    Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
    Last updated -
    53
    Python
    MIT License
    • Linux
    • Apple
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server enabling LLMs to search, retrieve, and manage documents through Rememberizer's knowledge management API.
    Last updated -
    24
    Python
    Apache 2.0
  • -
    security
    -
    license
    -
    quality
    A long-term memory storage system for LLMs that helps them remember context across multiple sessions using semantic search with embeddings to provide relevant historical information from past interactions and development decisions.
    Last updated -
    3
    TypeScript
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ibrooksSDX/mcp-server-opensearch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server