Servidor de documentación MCP LLMS-TXT
Descripción general
llms.txt es un índice de sitios web para LLM, que proporciona información general, orientación y enlaces a archivos Markdown detallados. IDEs como Cursor y Windsurf, o aplicaciones como Claude Code/Desktop, pueden usar llms.txt para recuperar el contexto de las tareas. Sin embargo, estas aplicaciones utilizan diferentes herramientas integradas para leer y procesar archivos como llms.txt . El proceso de recuperación puede ser opaco y no siempre es posible auditar las llamadas a las herramientas ni el contexto devuelto.
MCP ofrece a los desarrolladores un control total sobre las herramientas que utilizan estas aplicaciones. En este trabajo, creamos un servidor MCP de código abierto para proporcionar a las aplicaciones host MCP (p. ej., Cursor, Windsurf, Claude Code/Desktop) (1) una lista de archivos llms.txt definida por el usuario y (2) una herramienta fetch_docs sencilla que lee las URL dentro de cualquiera de los archivos llms.txt proporcionados. Esto permite al usuario auditar cada llamada a la herramienta, así como el contexto devuelto.
Inicio rápido
Instalar uv
Consulte la documentación oficial de uv para conocer otras formas de instalar
uv.
Elija un archivo llms.txt para utilizar.
Por ejemplo, aquí está el archivo
llms.txtde LangGraph.
(Opcional) Pruebe el servidor MCP localmente con el archivo llms.txt de su elección:
Esto debería ejecutarse en: http://localhost:8082
Ejecute el inspector MCP y conéctese al servidor en ejecución:
Aquí puedes probar las llamadas
tool.
Conectarse al cursor
Abra
Cursor Settingsy la pestañaMCP.Esto abrirá el archivo
~/.cursor/mcp.json.
Pegue lo siguiente en el archivo (usamos el nombre
langgraph-docs-mcpy el enlace a LangGraphllms.txt).
Confirme que el servidor se esté ejecutando en la pestaña
Cursor Settings/MCP.CMD+L(en Mac) para abrir el chat.Asegúrese de que
agentesté seleccionado.
A continuación, prueba con un ejemplo de solicitud, como por ejemplo:
Conéctate a Windsurf
Abra Cascade con
CMD+L(en Mac).Haga clic en
Configure MCPpara abrir el archivo de configuración,~/.codeium/windsurf/mcp_config.json.Actualice con
langgraph-docs-mcpcomo se indicó anteriormente.
CMD+L(en Mac) para abrir Cascade y actualizar los servidores MCP.Se enumerarán los servidores MCP disponibles, mostrando
langgraph-docs-mcpcomo conectado.
A continuación, prueba el ejemplo:
Realizará sus llamadas de herramientas.
Conectarse a Claude Desktop
Abra
Settings/Developerpara actualizar~/Library/Application\ Support/Claude/claude_desktop_config.json.Actualice con
langgraph-docs-mcpcomo se indicó anteriormente.Reinicie la aplicación Claude Desktop.
Verás tus herramientas visibles en la parte inferior derecha de tu entrada de chat.
A continuación, prueba el ejemplo:
Le solicitará que apruebe las llamadas de herramientas mientras procesa su solicitud.
Conectarse a Claude Code
En una terminal después de instalar Claude Code , ejecute este comando para agregar el servidor MCP a su proyecto:
Verá
~/.claude.jsonactualizado.Pruebe iniciando Claude Code y ejecutándolo para ver sus herramientas:
A continuación, prueba el ejemplo:
Solicitará aprobar llamadas de herramientas.
Interfaz de línea de comandos
El comando mcpdoc proporciona una CLI simple para iniciar el servidor de documentación.
Puede especificar fuentes de documentación de tres maneras, que pueden combinarse:
Usando un archivo de configuración YAML:
Esto cargará la documentación de Python de LangGraph desde el archivo
sample_config.yamlen este repositorio.
Usando un archivo de configuración JSON:
Esto cargará la documentación de Python de LangGraph desde el archivo
sample_config.jsonen este repositorio.
Especificar directamente las URL de llms.txt con nombres opcionales:
Las URL se pueden especificar como URL simples o con nombres opcionales utilizando el formato
name:url.Así es como cargamos
llms.txtpara el servidor MCP anterior.
También puede combinar estos métodos para fusionar fuentes de documentación:
Opciones adicionales
--follow-redirects: Seguir redirecciones HTTP (predeterminado en Falso)--timeout SECONDS: tiempo de espera de la solicitud HTTP en segundos (predeterminado 10.0)
Ejemplo con opciones adicionales:
Esto cargará la documentación de Python de LangGraph con un tiempo de espera de 15 segundos y seguirá cualquier redirección HTTP si es necesario.
Formato de configuración
Los archivos de configuración YAML y JSON deben contener una lista de fuentes de documentación.
Cada fuente debe incluir una URL llms_txt y, opcionalmente, puede incluir un name :
Ejemplo de configuración de YAML (sample_config.yaml)
Ejemplo de configuración JSON (sample_config.json)
Uso programático
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un servidor MCP de código abierto que proporciona a aplicaciones como Cursor, Windsurf y Claude acceso a archivos de documentación llms.txt, lo que permite a los usuarios controlar y auditar la recuperación de contexto.
Related MCP Servers
- Asecurity-licenseAqualityThis MCP server provides tools for interacting with Cloudflare Browser Rendering, allowing you to fetch and process web content for use as context in LLMs directly from Cline or Claude Desktop.Last updated -510MIT License
- -security-license-qualityAn MCP server that connects any MCP client (like Claude or Cursor) with the browser using browser-use, allowing clients to utilize existing LLMs without requiring additional API keys.Last updated -74Apache 2.0
- -security-license-qualityAn MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.Last updated -766MIT License
- -security-license-qualityA MCP server to allow the LLM in Cursor to access Rust Analyzer, Crate Docs and Cargo Commands.Last updated -76