Skip to main content
Glama

MCP LLMS-TXT Documentation Server

by teddylee777

Servidor de documentación MCP LLMS-TXT

Descripción general

llms.txt es un índice de sitios web para LLM, que proporciona información general, orientación y enlaces a archivos Markdown detallados. IDEs como Cursor y Windsurf, o aplicaciones como Claude Code/Desktop, pueden usar llms.txt para recuperar el contexto de las tareas. Sin embargo, estas aplicaciones utilizan diferentes herramientas integradas para leer y procesar archivos como llms.txt . El proceso de recuperación puede ser opaco y no siempre es posible auditar las llamadas a las herramientas ni el contexto devuelto.

MCP ofrece a los desarrolladores un control total sobre las herramientas que utilizan estas aplicaciones. En este trabajo, creamos un servidor MCP de código abierto para proporcionar a las aplicaciones host MCP (p. ej., Cursor, Windsurf, Claude Code/Desktop) (1) una lista de archivos llms.txt definida por el usuario y (2) una herramienta fetch_docs sencilla que lee las URL dentro de cualquiera de los archivos llms.txt proporcionados. Esto permite al usuario auditar cada llamada a la herramienta, así como el contexto devuelto.

mcpdoc

Inicio rápido

Instalar uv
curl -LsSf https://astral.sh/uv/install.sh | sh
Elija un archivo llms.txt para utilizar.
  • Por ejemplo, aquí está el archivo llms.txt de LangGraph.
(Opcional) Pruebe el servidor MCP localmente con el archivo llms.txt de su elección:
uvx --from mcpdoc mcpdoc \ --urls LangGraph:https://langchain-ai.github.io/langgraph/llms.txt \ --transport sse \ --port 8082 \ --host localhost

Captura de pantalla del 18/03/2025 a las 15:29 y 30 h

npx @modelcontextprotocol/inspector

Captura de pantalla del 18/03/2025 a las 15:30

  • Aquí puedes probar las llamadas tool .
Conectarse al cursor
  • Abra Cursor Settings y la pestaña MCP .
  • Esto abrirá el archivo ~/.cursor/mcp.json .

Captura de pantalla del 19/03/2025 a las 11:01:31

  • Pegue lo siguiente en el archivo (usamos el nombre langgraph-docs-mcp y el enlace a LangGraph llms.txt ).
{ "mcpServers": { "langgraph-docs-mcp": { "command": "uvx", "args": [ "--from", "mcpdoc", "mcpdoc", "--urls", "LangGraph:https://langchain-ai.github.io/langgraph/llms.txt", "--transport", "stdio", "--port", "8081", "--host", "localhost" ] } } }
  • Confirme que el servidor se esté ejecutando en la pestaña Cursor Settings/MCP .
  • CMD+L (en Mac) para abrir el chat.
  • Asegúrese de que agent esté seleccionado.

Captura de pantalla del 18/03/2025 a las 13:56 54

A continuación, prueba con un ejemplo de solicitud, como por ejemplo:

use the langgraph-docs-mcp server to answer any LangGraph questions -- + call list_doc_sources tool to get the available llms.txt file + call fetch_docs tool to read it + reflect on the urls in llms.txt + reflect on the input question + call fetch_docs on any urls relevant to the question + use this to answer the question what are types of memory in LangGraph?

Captura de pantalla del 18/03/2025 a las 13:58

Conéctate a Windsurf

  • Abra Cascade con CMD+L (en Mac).
  • Haga clic en Configure MCP para abrir el archivo de configuración, ~/.codeium/windsurf/mcp_config.json .
  • Actualice con langgraph-docs-mcp como se indicó anteriormente.

Captura de pantalla del 19/03/2025 a las 11:02:52

  • CMD+L (en Mac) para abrir Cascade y actualizar los servidores MCP.
  • Se enumerarán los servidores MCP disponibles, mostrando langgraph-docs-mcp como conectado.

Captura de pantalla del 18/03/2025 a las 14:02

A continuación, prueba el ejemplo:

  • Realizará sus llamadas de herramientas.

Captura de pantalla del 18/03/2025 a las 14:03 07

Conectarse a Claude Desktop

  • Abra Settings/Developer para actualizar ~/Library/Application\ Support/Claude/claude_desktop_config.json .
  • Actualice con langgraph-docs-mcp como se indicó anteriormente.
  • Reinicie la aplicación Claude Desktop.

Captura de pantalla del 18/03/2025 a las 14:05 54

  • Verás tus herramientas visibles en la parte inferior derecha de tu entrada de chat.

Captura de pantalla del 18/03/2025 a las 14:05 39

A continuación, prueba el ejemplo:

  • Le solicitará que apruebe las llamadas de herramientas mientras procesa su solicitud.

Captura de pantalla del 18/03/2025 a las 14:06 54

Conectarse a Claude Code

  • En una terminal después de instalar Claude Code , ejecute este comando para agregar el servidor MCP a su proyecto:
claude mcp add-json langgraph-docs '{"type":"stdio","command":"uvx" ,"args":["--from", "mcpdoc", "mcpdoc", "--urls", "langgraph:https://langchain-ai.github.io/langgraph/llms.txt"]}' -s local
  • Verá ~/.claude.json actualizado.
  • Pruebe iniciando Claude Code y ejecutándolo para ver sus herramientas:
$ Claude $ /mcp

Captura de pantalla del 18/03/2025 a las 14:13:49

A continuación, prueba el ejemplo:

  • Solicitará aprobar llamadas de herramientas.

Captura de pantalla del 18/03/2025 a las 14:14:37

Interfaz de línea de comandos

El comando mcpdoc proporciona una CLI simple para iniciar el servidor de documentación.

Puede especificar fuentes de documentación de tres maneras, que pueden combinarse:

  1. Usando un archivo de configuración YAML:
  • Esto cargará la documentación de Python de LangGraph desde el archivo sample_config.yaml en este repositorio.
mcpdoc --yaml sample_config.yaml
  1. Usando un archivo de configuración JSON:
  • Esto cargará la documentación de Python de LangGraph desde el archivo sample_config.json en este repositorio.
mcpdoc --json sample_config.json
  1. Especificar directamente las URL de llms.txt con nombres opcionales:
  • Las URL se pueden especificar como URL simples o con nombres opcionales utilizando el formato name:url .
  • Así es como cargamos llms.txt para el servidor MCP anterior.
mcpdoc --urls LangGraph:https://langchain-ai.github.io/langgraph/llms.txt

También puede combinar estos métodos para fusionar fuentes de documentación:

mcpdoc --yaml sample_config.yaml --json sample_config.json --urls https://langchain-ai.github.io/langgraph/llms.txt

Opciones adicionales

  • --follow-redirects : Seguir redirecciones HTTP (predeterminado en Falso)
  • --timeout SECONDS : tiempo de espera de la solicitud HTTP en segundos (predeterminado 10.0)

Ejemplo con opciones adicionales:

mcpdoc --yaml sample_config.yaml --follow-redirects --timeout 15

Esto cargará la documentación de Python de LangGraph con un tiempo de espera de 15 segundos y seguirá cualquier redirección HTTP si es necesario.

Formato de configuración

Los archivos de configuración YAML y JSON deben contener una lista de fuentes de documentación.

Cada fuente debe incluir una URL llms_txt y, opcionalmente, puede incluir un name :

Ejemplo de configuración de YAML (sample_config.yaml)

# Sample configuration for mcp-mcpdoc server # Each entry must have a llms_txt URL and optionally a name - name: LangGraph Python llms_txt: https://langchain-ai.github.io/langgraph/llms.txt

Ejemplo de configuración JSON (sample_config.json)

[ { "name": "LangGraph Python", "llms_txt": "https://langchain-ai.github.io/langgraph/llms.txt" } ]

Uso programático

from mcpdoc.main import create_server # Create a server with documentation sources server = create_server( [ { "name": "LangGraph Python", "llms_txt": "https://langchain-ai.github.io/langgraph/llms.txt", }, # You can add multiple documentation sources # { # "name": "Another Documentation", # "llms_txt": "https://example.com/llms.txt", # }, ], follow_redirects=True, timeout=15.0, ) # Run the server server.run(transport="stdio")
-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un servidor MCP de código abierto que proporciona a aplicaciones como Cursor, Windsurf y Claude acceso a archivos de documentación llms.txt, lo que permite a los usuarios controlar y auditar la recuperación de contexto.

  1. Descripción general
    1. Inicio rápido
      1. Instalar uv
      2. Elija un archivo llms.txt para utilizar.
      3. (Opcional) Pruebe el servidor MCP localmente con el archivo llms.txt de su elección:
      4. Conectarse al cursor
      5. Conéctate a Windsurf
      6. Conectarse a Claude Desktop
      7. Conectarse a Claude Code
    2. Interfaz de línea de comandos
      1. Opciones adicionales
        1. Formato de configuración
          1. Ejemplo de configuración de YAML (sample\_config.yaml)
          2. Ejemplo de configuración JSON (sample\_config.json)
        2. Uso programático

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            An MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.
            Last updated -
            2
            TypeScript
          • -
            security
            F
            license
            -
            quality
            An MCP server that provides detailed information about your development environment to the Cursor code editor, enabling more context-aware assistance.
            Last updated -
            1
            Python
            • Linux
            • Apple
          • -
            security
            A
            license
            -
            quality
            An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
            Last updated -
            177
            Python
            MIT License
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol (MCP) server for Cursor IDE that simplifies the installation and configuration of other MCP servers.
            Last updated -
            882
            23
            JavaScript
            MIT License
            • Apple
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/teddylee777/mcpdoc'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server