Skip to main content
Glama

MCP Documentation Server

by esakrissa

Servidor de documentación de MCP

Una versión personalizada del servidor de documentación MCP que permite la integración entre aplicaciones LLM (como Cursor, Claude Desktop, Windsurf) y fuentes de documentación a través del Protocolo de Contexto de Modelo.

Descripción general

Este servidor proporciona a las aplicaciones host MCP:

  1. Acceso a archivos de documentación específicos (langgraph.txt y mcp.txt)
  2. Herramientas para obtener documentación de las URL dentro de esos archivos

Documentación de apoyo

Actualmente configurado para:

Inicio rápido

Configuración y ejecución

# Clone the repository git clone https://github.com/esakrissa/mcp-doc.git cd mcp-doc # Create and activate a virtual environment python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate # Install the package in development mode pip install -e .

Ejecución del servidor

Puede ejecutar el servidor utilizando el comando instalado:

# Run the server with the config file mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

O si prefieres usar UV:

# Install uv (if not already installed) curl -LsSf https://astral.sh/uv/install.sh | sh # Run the server with UV uvx --from mcpdoc mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

Integración IDE

Cursor

Agregar a ~/.cursor/mcp.json

{ "mcpServers": { "mcp-doc": { "command": "uvx", "args": [ "--from", "mcpdoc", "mcpdoc", "--urls", "LangGraph:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/langgraph.txt", "ModelContextProtocol:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/mcp.txt", "--allowed-domains", "*", "--transport", "stdio" ] } } }

A continuación, agregue estas instrucciones a las Instrucciones personalizadas del cursor:

for ANY question about LangGraph and Model Context Protocol (MCP), use the mcp-doc server to help answer -- + call list_doc_sources tool to get the available documentation files + call fetch_docs tool to read the langgraph.txt or mcp.txt file + reflect on the urls in langgraph.txt or mcp.txt + reflect on the input question + call fetch_docs on any urls relevant to the question + use this to answer the question

Para probar si la integración está funcionando, pregúntele a Cursor una pregunta sobre LangGraph o MCP y verifique si utiliza las herramientas del servidor de documentación para obtener información.

Nota de seguridad

Por razones de seguridad, se implementan estrictos controles de acceso al dominio:

  • Archivos de documentación remota: solo se permite automáticamente el dominio específico
  • Archivos de documentación local: No se permiten dominios automáticamente
  • Utilice --allowed-domains para agregar dominios explícitamente o --allowed-domains '*' para permitir todos (úselo con precaución)

Referencias

Este proyecto se basa en el mcpdoc original de LangChain AI , modificado para proporcionar acceso a la documentación enfocada en LangGraph y MCP.

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor MCP personalizado que permite la integración entre aplicaciones LLM y fuentes de documentación, proporcionando acceso asistido por IA a la documentación de LangGraph y Model Context Protocol.

  1. Descripción general
    1. Documentación de apoyo
      1. Inicio rápido
        1. Configuración y ejecución
        2. Ejecución del servidor
        3. Integración IDE
      2. Nota de seguridad
        1. Referencias

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
            Last updated -
            177
            Python
            MIT License
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol (MCP) compliant server that allows Large Language Models (LLMs) to search and retrieve content from microCMS APIs.
            Last updated -
            TypeScript
            MIT License
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server implementation that enables seamless integration with Claude and other MCP-compatible clients to access Prem AI's language models, RAG capabilities, and document management features.
            Last updated -
            JavaScript
          • A
            security
            A
            license
            A
            quality
            The APISIX Model Context Protocol (MCP) server bridges large language models (LLMs) with the APISIX Admin API.
            Last updated -
            31
            67
            16
            TypeScript
            Apache 2.0

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/esakrissa/mcp-doc'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server