Skip to main content
Glama

Memory Accurate Response Mode v2.2.6 - AI 에이전트를 위한 지능형 지속적 메모리 시스템(HTTP 및 STDIO 지원). 이제 메모리와 씨름하지 말고 직접 제어하세요. 장기 기억, 세션 연속성, 신뢰할 수 있는 대화 기록을 경험하여 LLM이 중요한 내용을 절대 놓치지 않도록 하세요.

GitHub stars GitHub forks License Python FastAPI Docker Pulls PyPI Downloads

pip install MCP Registry

Official MARM

참고: 이 저장소는 공식 MARM 저장소입니다. 모든 공식 버전과 릴리스는 여기서 관리됩니다.

포크 버전은 실험적일 수 있으나, 공식 업데이트는 항상 이 저장소에서 제공됩니다.


🚀 프로젝트 업데이트: 2026년 2분기

현재 800개 이상의 자동화된 Pester 테스트를 통해 간헐적인 PCIe 플래핑 및 TDR 충돌을 잡아내도록 설계된 포렌식 등급의 Windows 하드웨어 진단 툴킷인 SysDX 출시를 마무리하고 있습니다. 이 생산 중심의 개발 단계는 MARM 핵심 로직에 대한 최고의 스트레스 테스트 역할을 했으며, 이제 이러한 실제 안정성 및 메모리 최적화 작업을 이 저장소로 다시 포팅하고 있습니다.

🛠️ 2분기 로드맵

  • 세션 지속성 수정: 로그 항목이 실행되기 전에 활성 세션이 올바르게 유지되도록 marm_log_session 상태 로직 해결.

  • 지능형 속도 제한: 10분간의 로컬 호스트 잠금을 줄이고 더 원활한 MCP 클라이언트 처리를 위해 Retry-After 헤더 구현.

  • 디렉토리 기반 메모리: 다양한 코딩 환경을 위해 격리된 메모리 풀을 허용하도록 프로젝트별 SQLite 아키텍처로 전환.

  • 컨텍스트 비대화 감소: 세션 시작 시 불필요한 토큰 소비를 방지하기 위해 문서 지연 로딩 구현.

  • 자동화 체크포인트: N개의 메시지마다 의미론적 요약을 트리거하는 선택적 "자동 로그" 기능 추가.

  • 핵심 정리: 단일 진실 공급원을 구축하고 향후 설치 드리프트를 방지하기 위해 중복된 루트 파일 제거.

기다려 주시고 지원해 주셔서 감사합니다.


MARM 데모 영상: Docker 설치 + 지속적 AI 메모리 작동 확인

https://github.com/user-attachments/assets/c7c6a162-5408-4eda-a461-610b7e713dfe

이 데모 영상은 MARM MCP의 Docker 풀(pull) 과정과 claude add mcp transport 명령을 사용하여 Claude에 연결하는 방법을 안내합니다. 또한 여러 AI 에이전트(Claude, Gemini, Qwen)가 MARM의 지속적이고 보편적인 메모리를 통해 로그와 노트북 항목을 즉시 공유하여, 원활한 에이전트 간 회상과 "절대적 진실" 노트북이 실제로 작동하는 모습을 보여줍니다.


MARM MCP를 사용하는 이유: 문제와 해결책

당신의 AI는 모든 것을 잊어버립니다. 하지만 MARM MCP는 그렇지 않습니다.

최신 LLM은 시간이 지남에 따라 컨텍스트를 잃고, 이전 아이디어를 반복하며, 요구 사항에서 벗어납니다. MARM MCP는 사용하는 모든 AI 클라이언트 하위에서 작동하는 통합된 지속적 MCP 네이티브 메모리 계층으로 이 문제를 해결합니다. 의미론적 검색, 구조화된 세션 로그, 재사용 가능한 노트북, 스마트 요약을 결합하여 에이전트가 세션과 도구 전반에 걸쳐 일관되게 이전 작업을 기억하고 참조하며 발전시킬 수 있도록 합니다.

한 문장으로 요약하는 MCP: MARM MCP는 모든 AI 도구 하위에서 지속적인 메모리와 구조화된 세션 컨텍스트를 제공하여, 에이전트가 모든 워크플로우에서 학습하고 기억하며 협업할 수 있도록 합니다.

문제 → MARM 해결책

  • 문제: 대화가 초기화됨; 결정 사항이 유실됨; 작업이 여러 AI 도구에 흩어짐.

  • 해결책: 중요한 부분(결정, 구성, 코드, 근거)을 캡처하고 분류한 다음, 키워드가 아닌 의미를 기반으로 회상하는 보편적이고 지속적인 메모리 계층.

이전 vs 이후

  • MARM 이전: 컨텍스트 유실, 반복적인 제안, 범위 이탈, "처음부터 다시 시작".

  • MARM 이후: 세션 메모리, 세션 간 연속성, 결정 사항에 대한 구체적인 회상, 더 빠르고 정확한 결과물.

MARM MCP가 제공하는 것

메모리

멀티 AI

아키텍처

의미론적 검색 - AI 임베딩을 사용하여 의미 기반 검색

통합 메모리 계층 - Claude, Qwen, Gemini, MCP 클라이언트와 호환

18개의 완전한 MCP 도구 - 전체 모델 컨텍스트 프로토콜 커버리지

자동 분류 - 콘텐츠 범주화 (코드, 프로젝트, 책, 일반)

플랫폼 간 지능 - 서로 다른 AI가 공유 지식을 통해 학습

데이터베이스 최적화 - WAL 모드 및 연결 풀링을 사용하는 SQLite

지속적 세션 간 메모리 - 에이전트 대화 전반에 걸쳐 메모리 유지

사용자 제어 메모리 - "나만의 기록 가져오기", 세밀한 제어

속도 제한 - 안정성을 위한 IP 기반 계층

스마트 회상 - 컨텍스트 인식 폴백이 포함된 벡터 유사도 검색

MCP 준수 - 예측 가능한 성능을 위한 응답 크기 관리

Docker 준비 완료 - 상태/준비 상태 확인이 포함된 컨테이너 배포


사용자들의 평가

"MARM은 프로덕션 환경의 산업 자동화 워크플로우를 성공적으로 처리합니다. Windows 11 + Docker 환경에서 컨테이너 재시작 전반에 걸쳐 세션 관리, 지속적 로깅, 스마트 회상을 검증했습니다. 이 시스템은 복잡한 기술적 결정을 안정적으로 추적하고 배포 주기 전반에 걸쳐 데이터 무결성을 유지합니다." @Ophy21, GitHub 사용자 (산업 자동화 엔지니어)

"MARM은 DevOps 및 복잡한 Docker 프로젝트에 매우 유용했습니다. 100% 메모리 정확도를 유지하고, 46개의 서비스와 네트워크 구성에 대한 컨텍스트를 보존했으며, 표준을 준수하는 Python/Terraform 작업을 가능하게 했습니다. 의미론적 검색과 자동화된 세션 로그 덕분에 비동기 및 인프라 문제를 해결하기가 훨씬 쉬워졌습니다. 가치 평가: 9.5/10 - 엔터프라이즈급 메모리, 기술 표준 및 장기 세션 코드 관리에 필수적입니다." @joe_nyc, Discord 사용자 (DevOps/인프라 엔지니어)


MARM MCP 서버 가이드

이제 생태계를 이해하셨으니, AI 에이전트와 함께 MCP 서버를 사용하는 방법을 알려드립니다.


🚀 MCP 빠른 시작 (HTTP 및 Stdio)

Docker 설치:

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

로컬 http 설치:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Stdio 설치:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Docker (가장 빠름 - 30초):

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

빠른 로컬 http 설치:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Http 수동 JSON 구성:

{
  "mcpServers": {
    "marm-memory": {
      "httpUrl": "http://localhost:8001/mcp",
      "authentication": {
        "type": "oauth",
        "clientId": "local_client_b6f3a01e",
        "clientSecret": "local_secret_ad6703cd2b4243ab",
        "authorizationUrl": "http://localhost:8001/oauth/authorize",
        "tokenUrl": "http://localhost:8001/oauth/token"
      }
    }
  }
}

로컬 개발 인증 (개발 전용)

MARM에는 로컬 테스트를 위한 모의 OAuth 2.0 자격 증명이 포함되어 있습니다. 프로덕션 인증 시스템이 아닙니다.

왜 하드코딩된 자격 증명을 사용하나요? 로컬에서 개발할 때는 외부 OAuth 제공업체(GitHub, Google 등)가 없습니다. MARM에는 외부 종속성 없이 전체 MCP 인증 흐름을 테스트할 수 있도록 개발용 자격 증명이 포함되어 있습니다.

로컬 개발 시 다음 자격 증명을 사용하세요:

  • 클라이언트 ID: local_client_b6f3a01e

  • 클라이언트 시크릿: local_secret_ad6703cd2b4243ab

서버는 개발 중에만 이 하드코딩된 값에 대해 유효성을 검사합니다.

프로덕션 배포 시: 이 섹션 전체를 실제 OAuth 2.1 인증으로 교체하세요. 이 하드코딩된 자격 증명은 개발 전용이며 프로덕션에 적합하지 않습니다.

로드맵: 팀 배포 및 클라우드 환경을 지원하기 위해 향후 릴리스에서 다중 사용자 OAuth 인증이 계획되어 있습니다.


STDIO 전송 지원 (신규 2025/12/07)

MARM MCP 서버는 stdin/stdout 통신(오케스트레이션 플랫폼, CLI 도구 및 통합 개발 환경)이 필요한 MCP 클라이언트를 위해 STDIO 전송을 지원합니다.

빠른 가이드 Stdio 설치

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

첫 번째 단계:

pip install marm-mcp-server==2.2.6

두 번째 단계: STDIO 전용 종속성 설치:

pip install -r marm-mcp-server/requirements_stdio.txt

세 번째 단계: 구성

아래 두 가지 설정 방법 중 하나를 선택하세요:

옵션 1: CLI 구성 (권장)

플랫폼의 MCP 명령을 사용하여 MARM을 STDIO 서버로 추가하세요:

<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"

<platform>을 다음 중 하나로 교체하세요:

  • qwen (Qwen CLI용)

  • claude (Claude CLI용)

  • gemini (Gemini CLI용)

예시:

claude mcp add --transport stdio marm-memory-stdio python "/home/user/marm-mcp-server/server_stdio.py"

옵션 2: JSON 구성

수동 구성이 필요한 IDE 및 클라이언트의 경우, 설정 파일에 다음을 추가하세요:

macOS/Linux:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["/path/to/marm-mcp-server/server_stdio.py"],
      "cwd": "/path/to/marm-mcp-server"
    }
  }
}

Windows:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["C:\\Users\\YourUsername\\path\\to\\marm-mcp-server\\server_stdio.py"],
      "cwd": "C:\\Users\\YourUsername\\path\\to\\marm-mcp-server"
    }
  }
}

4단계 (선택 사항): 서버 수동 실행

서버를 로컬에서 실행하려면:

python marm-mcp-server/server_stdio.py

서버가 시작되고 연결된 MCP 클라이언트로부터의 JSON-RPC 2.0 메시지를 위해 stdin/stdout을 수신 대기합니다.

구성 참고 사항

  • python을 사용하세요 (Windows에서 python3 사용 금지)

  • cwd 매개변수는 필수입니다. 서버가 핵심 모듈을 찾을 수 있게 합니다.

  • 인수로 run을 포함하지 마세요.

  • /path/to/를 실제 설치 경로로 교체하세요.

지원되는 플랫폼

테스트 완료 및 작동 확인:

  • ✅ Qwen CLI (Windows, macOS, Linux)

  • ✅ Claude CLI (Windows, macOS, Linux)

  • ✅ Gemini CLI (Windows, macOS, Linux)

  • ✅ Cursor (Windows, macOS, Linux) — JSON 구성 사용

기타 플랫폼의 경우

위 목록에 플랫폼이 없는 경우:

  1. JSON 구성을 시도하세요 — 대부분의 MCP 클라이언트는 표준 구성 형식을 지원합니다.

  2. AI 지원을 받으세요 — 플랫폼 이름과 MCP 문서를 AI 어시스턴트에게 제공하면 위에서 보여준 명령 패턴을 조정하는 데 도움을 줄 수 있습니다.

  3. 플랫폼 문서 확인 — STDIO 전송 설정에 대해서는 MCP 클라이언트의 문서를 참조하세요.


WebSocket 전송 지원 (베타 - 테스트 중)

MARM MCP 서버에는 실시간 MCP 통신을 위한 실험적 WebSocket 지원이 포함되어 있습니다. 이 전송 방식은 내부적으로 구현 및 테스트되었지만 아직 프로덕션 워크플로우에서 활발하게 사용되지는 않습니다.

빠른 가이드 WebSocket 설치

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server/server.py

WebSocket을 통한 연결 (베타):

# Claude CLI
claude mcp add marm-memory ws://localhost:8001/mcp/ws

# Grok CLI  
grok mcp add marm-memory --transport websocket --url "ws://localhost:8001/mcp/ws"

WebSocket 엔드포인트: ws://localhost:8001/mcp/ws

WebSocket 기능

  • 실시간 통신 - 전이중 WebSocket 프로토콜 지원

  • JSON-RPC 2.0 준수 - 19개의 모든 MCP 메서드 지원

  • 동일한 도구 커버리지 - 모든 MARM 메모리 및 세션 도구 액세스

  • 베타 상태 - 테스트는 완료되었으나 활발히 사용되지 않음; 피드백 환영

지원되는 플랫폼

  • ✅ Claude CLI (WebSocket 전송)

  • ✅ Grok CLI (WebSocket 전송)

  • ✅ Qwen CLI (수동 WebSocket 구성 포함)

  • ✅ Gemini CLI (수동 WebSocket 구성 포함)

전송 방식 비교

기능

HTTP

STDIO

WebSocket

배포

HTTP 서버 필요

프로세스 기반

HTTP 서버

리소스 격리

공유 서버

프로세스당

공유 서버

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lyellr88/marm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server