Skip to main content
Glama

Server Configuration

Describes the environment variables required to run the server.

NameRequiredDescriptionDefault

No arguments

Capabilities

Features and capabilities supported by this server

CapabilityDetails
tools
{
  "listChanged": true
}

Tools

Functions exposed to the LLM to take actions

NameDescription
log_work

AI가 수행한 작업을 기록합니다. 나중에 '누가 뭘 했는지' 확인하거나 중단된 작업을 이어서 할 때 유용합니다.

get_work_log

기록된 작업 로그를 조회합니다. 특정 AI의 작업이나 태그로 필터링할 수 있습니다.

save_research

리서치 결과를 저장합니다. 다른 AI가 나중에 검색해서 활용할 수 있습니다.

search_research

저장된 리서치를 검색합니다. 키워드, 태그, 작성자로 찾을 수 있습니다.

save_checkpoint

현재 작업 상태를 저장합니다. 작업이 중단되더라도 나중에 이어서 할 수 있습니다.

load_checkpoint

저장된 체크포인트를 불러옵니다. 중단된 작업을 이어서 시작할 때 사용하세요.

memory_status

AI 협업 메모리의 전체 현황을 확인합니다. 작업 로그, 리서치, 체크포인트 통계를 보여줍니다.

Prompts

Interactive templates invoked by user choice

NameDescription

No prompts

Resources

Contextual data attached and managed by the client

NameDescription

No resources

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sodam-AI/AI-Collab-Memory_MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server