Skip to main content
Glama

MCP Documentation Server

by esakrissa

MCP 문서 서버

모델 컨텍스트 프로토콜을 통해 LLM 애플리케이션(Cursor, Claude Desktop, Windsurf 등)과 문서 소스를 통합할 수 있는 MCP 문서 서버의 맞춤형 버전입니다.

개요

이 서버는 MCP 호스트 애플리케이션에 다음을 제공합니다.

  1. 특정 문서 파일(langgraph.txt 및 mcp.txt)에 대한 액세스
  2. 해당 파일 내의 URL에서 문서를 가져오는 도구

지원되는 문서

현재 설정됨:

빠른 시작

설정 및 실행

지엑스피1

서버 실행

설치된 명령을 사용하여 서버를 실행할 수 있습니다.

# Run the server with the config file mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

또는 UV를 사용하는 것을 선호하는 경우:

# Install uv (if not already installed) curl -LsSf https://astral.sh/uv/install.sh | sh # Run the server with UV uvx --from mcpdoc mcpdoc \ --json config.json \ --transport sse \ --port 8082 \ --host localhost

IDE 통합

커서

~/.cursor/mcp.json 에 추가

{ "mcpServers": { "mcp-doc": { "command": "uvx", "args": [ "--from", "mcpdoc", "mcpdoc", "--urls", "LangGraph:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/langgraph.txt", "ModelContextProtocol:https://raw.githubusercontent.com/esakrissa/mcp-doc/main/docs/mcp.txt", "--allowed-domains", "*", "--transport", "stdio" ] } } }

그런 다음 커서의 사용자 지정 지침에 다음 지침을 추가합니다.

for ANY question about LangGraph and Model Context Protocol (MCP), use the mcp-doc server to help answer -- + call list_doc_sources tool to get the available documentation files + call fetch_docs tool to read the langgraph.txt or mcp.txt file + reflect on the urls in langgraph.txt or mcp.txt + reflect on the input question + call fetch_docs on any urls relevant to the question + use this to answer the question

통합이 제대로 작동하는지 테스트하려면 Cursor에 LangGraph나 MCP에 대해 질문하고, 설명서 서버 도구를 사용해 정보를 가져오는지 확인하세요.

보안 참고 사항

보안상의 이유로 엄격한 도메인 액세스 제어가 구현됩니다.

  • 원격 문서 파일: 특정 도메인만 자동으로 허용됩니다.
  • 로컬 문서 파일: 도메인이 자동으로 허용되지 않습니다.
  • --allowed-domains 사용하여 도메인을 명시적으로 추가하거나 --allowed-domains '*' 사용하여 모든 도메인을 허용합니다(신중하게 사용하세요)

참고문헌

이 프로젝트는 LangChain AI의 원래 mcpdoc을 기반으로 LangGraph와 MCP에 대한 집중적인 문서 액세스를 제공하도록 수정되었습니다.

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

LLM 애플리케이션과 문서 소스 간 통합을 가능하게 하는 맞춤형 MCP 서버로, LangGraph 및 Model Context Protocol 문서에 대한 AI 지원 액세스를 제공합니다.

  1. 개요
    1. 지원되는 문서
      1. 빠른 시작
        1. 설정 및 실행
        2. 서버 실행
        3. IDE 통합
      2. 보안 참고 사항
        1. 참고문헌

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
            Last updated -
            177
            Python
            MIT License
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol (MCP) compliant server that allows Large Language Models (LLMs) to search and retrieve content from microCMS APIs.
            Last updated -
            TypeScript
            MIT License
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server implementation that enables seamless integration with Claude and other MCP-compatible clients to access Prem AI's language models, RAG capabilities, and document management features.
            Last updated -
            JavaScript
          • A
            security
            A
            license
            A
            quality
            The APISIX Model Context Protocol (MCP) server bridges large language models (LLMs) with the APISIX Admin API.
            Last updated -
            31
            67
            16
            TypeScript
            Apache 2.0

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/esakrissa/mcp-doc'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server