Skip to main content
Glama

File System MCP Server

by terzeron

File System MCP Server (with LLM Agent Bridge)

이 프로젝트는 파일 시스템 작업을 LLM(예: Ollama) + MCP 도구 + Python 브리지(Agent)로 자동화하는 예제입니다.


아키텍처(최신 구조)

┌──────────────┐ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │ 사용자 │ → │ bridge.py │ → │ mcp_server.py │ → │ backend_api.py│ │ (자연어 명령)│ │ (LLM+MCP Agent)│ │ (MCP 서버) │ │ (백엔드 API) │ └──────────────┘ └──────────────┘ └──────────────┘ └──────────────┘
  • bridge.py: Ollama(LLM)와 MCP 서버를 연결하는 Python 에이전트(Agent, 브리지)
  • mcp_server.py: MCP 프로토콜을 구현한 파일 시스템 도구 서버
  • backend_api.py: 실제 파일 시스템 작업을 수행하는 백엔드 API

주요 파일 설명

  • backend_api.py : 파일/디렉토리 관리 REST API (포트 8001)
  • mcp_server.py : MCP 프로토콜 서버, backend_api.py를 래핑 (포트 8000)
  • bridge.py : Ollama(LLM)와 MCP 서버를 연결, 자연어 명령을 실제 작업으로 자동 실행

설치 및 실행 방법

1. 의존성 설치

pip install -r requirements.txt

2. 서비스 실행

1) 백엔드 API 실행
python backend_api.py
2) MCP 서버 실행
python mcp_server.py
3) Ollama 서버 실행
ollama serve
4) 브리지(Agent) 실행
python bridge.py

사용 예시 (자동화)

브리지 실행 후, 아래와 같이 자연어로 명령하면 실제 파일 시스템 작업이 자동 실행됩니다.

👤 사용자: test_source.txt를 test_dest.txt로 복사해줘 🤖 Ollama 처리 중... 📝 Ollama 응답: {"tool": "copy_file", "inputs": {"source_path": "test_source.txt", "destination_path": "test_dest.txt"}} 🔧 MCP 도구 호출: copy_file 📋 매개변수: {'source_path': 'test_source.txt', 'destination_path': 'test_dest.txt'} ✅ 실행 결과: { "output": { "source_path": "/Users/terzeron/workspace/mcp_test/test_source.txt", "destination_path": "/Users/terzeron/workspace/mcp_test/test_dest.txt", "bytes_copied": 94, "message": "File copied successfully" } }
  • 예시 명령:
    • 현재 디렉토리 파일 목록 보여줘
    • test_source.txt 파일 읽어줘
    • 새 파일 test.txt에 Hello World 써줘
    • test_source.txt 파일 정보 보여줘
    • 새 폴더 backup 만들어줘
    • test_source.txt를 test_copy.txt로 복사해줘
    • test_copy.txt 파일 삭제해줘

Ollama 단독 사용법(참고)

Ollama만 사용할 경우, 실제 작업은 자동 실행되지 않고 curl 명령어 예시만 출력됩니다. 실제 자동화를 원한다면 반드시 bridge.py를 사용하세요.


기타

  • 모든 서비스는 로컬에서 실행됩니다.
  • bridge.py는 Ollama의 답변에서 도구 호출 JSON을 추출해 MCP 서버에 자동 요청합니다.
  • MCP 서버와 백엔드 API는 FastAPI 기반입니다.

문의/확장

  • 더 복잡한 에이전트, 대화형 챗봇, 여러 도구 조합 등 확장도 가능합니다.
-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Automates file system operations through natural language commands using a combination of LLM (Ollama), MCP tools, and a Python bridge agent.

  1. 아키텍처(최신 구조)
    1. 주요 파일 설명
      1. 설치 및 실행 방법
        1. 1. 의존성 설치
        2. 2. 서비스 실행
      2. 사용 예시 (자동화)
        1. Ollama 단독 사용법(참고)
          1. 기타
            1. 문의/확장

              Related MCP Servers

              • A
                security
                F
                license
                A
                quality
                A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                Last updated -
                10
                73
                • Apple
              • -
                security
                F
                license
                -
                quality
                A server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.
                Last updated -
                6
                • Apple
              • A
                security
                A
                license
                A
                quality
                A bridge that integrates Ollama's local LLM capabilities into MCP-powered applications, enabling users to run, manage, and interact with AI models locally with full control and privacy.
                Last updated -
                9
                26
                3
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                A demo MCP server that enables users to interact with various tools through natural language, including note management, weather queries, calculations, file operations, and shell commands. Uses Ollama for intent detection and structured command parsing from free text input.
                Last updated -

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/terzeron/mcp_test'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server