Skip to main content
Glama

WinTerm MCP

by capecoma

윈텀 MCP

Windows 터미널에 프로그래밍 방식으로 액세스할 수 있는 모델 컨텍스트 프로토콜 서버입니다. 이 서버를 통해 AI 모델은 표준화된 도구 세트를 통해 Windows 명령줄 인터페이스와 상호 작용할 수 있습니다.

특징

  • 터미널에 쓰기 : Windows 터미널에 명령을 실행하거나 텍스트를 씁니다.
  • 터미널 출력 읽기 : 이전에 실행된 명령의 출력을 검색합니다.
  • 제어 문자 보내기 : 터미널에 제어 신호(예: Ctrl+C)를 보냅니다.
  • Windows-Native : Windows 명령줄 상호 작용을 위해 특별히 제작됨

설치

  1. 저장소 복제 :지엑스피1
  2. 종속성 설치 :
    npm install
  3. 프로젝트 빌드 :
    npm run build
  4. Claude Desktop 구성 :

%APPDATA%/Claude/claude_desktop_config.json 에 서버 구성을 추가합니다.

{ "mcpServers": { "github.com/capecoma/winterm-mcp": { "command": "node", "args": ["path/to/build/index.js"], "disabled": false, "autoApprove": [] } } }

참고: "path/to/build/index.js"를 빌드한 index.js 파일의 실제 경로로 바꾸세요.

사용 가능한 도구

터미널에 쓰기

터미널에 텍스트나 명령을 씁니다.

{ "command": "echo Hello, World!" }

읽기_터미널_출력

터미널 출력에서 지정된 수의 줄을 읽습니다.

{ "linesOfOutput": 5 }

제어문자 보내기

터미널에 제어 문자를 보냅니다(예: Ctrl+C).

{ "letter": "C" }

개발

자동 재빌드를 사용한 개발의 경우:

npm run dev

특허

MIT 라이센스 - LICENSE 파일을 참조하세요.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Windows 터미널에 프로그래밍 방식으로 액세스할 수 있는 모델 컨텍스트 프로토콜 서버로, AI 모델이 표준화된 도구를 통해 명령 작성, 출력 읽기, 제어 신호 전송을 통해 Windows 명령줄과 상호 작용할 수 있도록 합니다.

  1. 특징
    1. 설치
      1. 사용 가능한 도구
        1. 터미널에 쓰기
        2. 읽기\터미널\출력
        3. 제어문자 보내기
      2. 개발
        1. 특허

          Related MCP Servers

          • A
            security
            F
            license
            A
            quality
            A Model Context Protocol server that allows secure execution of pre-approved commands, enabling AI assistants to safely interact with the user's system.
            Last updated -
            1
            3
            18
            JavaScript
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables AI assistants like Claude to perform Python development tasks through file operations, code analysis, project management, and safe code execution.
            Last updated -
            1
            Python
            • Linux
            • Apple
          • A
            security
            A
            license
            A
            quality
            A server that enables AI assistants to execute terminal commands and retrieve outputs via the Model Context Protocol (MCP).
            Last updated -
            3
            6
            Python
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            A secure Model Context Protocol server that allows AI models to safely interact with Windows command-line functionality, enabling controlled execution of system commands, project creation, and system information retrieval.
            Last updated -
            8
            3
            TypeScript
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/capecoma/winterm-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server