Skip to main content
Glama

Servidor de documentación de MCP

Una versión personalizada del servidor de documentación MCP que permite la integración entre aplicaciones LLM (como Cursor, Claude Desktop, Windsurf) y fuentes de documentación a través del Protocolo de Contexto de Modelo.

Descripción general

Este servidor proporciona a las aplicaciones host MCP:

  1. Acceso a archivos de documentación específicos (langgraph.txt y mcp.txt)

  2. Herramientas para obtener documentación de las URL dentro de esos archivos

Related MCP server: MCP LLMS-TXT Documentation Server

Documentación de apoyo

Actualmente configurado para:

Inicio rápido

Configuración y ejecución

# Clone the repository git clone https://github.com/esakrissa/mcp-doc.git cd mcp-doc # Create and activate a virtual environment python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate # Install the package in development mode pip install -e .

Ejecución del servidor

Puede ejecutar el servidor utilizando el comando instalado:

# Run the server with the config file mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

O si prefieres usar UV:

# Install uv (if not already installed) curl -LsSf https://astral.sh/uv/install.sh | sh # Run the server with UV uvx --from mcpdoc mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

Integración IDE

Cursor

Agregar a ~/.cursor/mcp.json

{ "mcpServers": { "mcp-doc": { "command": "uvx", "args": [ "--from", "mcpdoc", "mcpdoc", "--urls", "LangGraph:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/langgraph.txt", "ModelContextProtocol:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/mcp.txt", "--allowed-domains", "*", "--transport", "stdio" ] } } }

A continuación, agregue estas instrucciones a las Instrucciones personalizadas del cursor:

for ANY question about LangGraph and Model Context Protocol (MCP), use the mcp-doc server to help answer -- + call list_doc_sources tool to get the available documentation files + call fetch_docs tool to read the langgraph.txt or mcp.txt file + reflect on the urls in langgraph.txt or mcp.txt + reflect on the input question + call fetch_docs on any urls relevant to the question + use this to answer the question

Para probar si la integración está funcionando, pregúntele a Cursor una pregunta sobre LangGraph o MCP y verifique si utiliza las herramientas del servidor de documentación para obtener información.

Nota de seguridad

Por razones de seguridad, se implementan estrictos controles de acceso al dominio:

  • Archivos de documentación remota: solo se permite automáticamente el dominio específico

  • Archivos de documentación local: No se permiten dominios automáticamente

  • Utilice --allowed-domains para agregar dominios explícitamente o --allowed-domains '*' para permitir todos (úselo con precaución)

Referencias

Este proyecto se basa en el mcpdoc original de LangChain AI , modificado para proporcionar acceso a la documentación enfocada en LangGraph y MCP.

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/esakrissa/mcp-doc'

If you have feedback or need assistance with the MCP directory API, please join our Discord server