CCGLM MCP Server
Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@CCGLM MCP Servergenerate a Python function to calculate Fibonacci numbers recursively"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
CCGLM MCP Server
Servidor MCP que permite usar Claude Code con backend GLM de Z.AI desde la instancia principal de Claude Code (Anthropic Sonnet).
🎯 Propósito
Permite a Claude Code (con Sonnet de Anthropic) invocar otra instancia de Claude Code que utiliza los modelos GLM de Z.AI como backend, sin necesidad de cambiar la configuración principal.
🏗️ Arquitectura
Claude Code (Sonnet Anthropic)
↓
MCP Tool: mcp__ccglm-mcp__glm_route
↓
CCGLM MCP Server
↓
Claude CLI con env vars GLM
↓
Z.AI GLM API (https://api.z.ai/api/anthropic)
↓
Modelo GLM-4.6📦 Instalación
1. Instalar Dependencias
cd ~/IA/ccglm-mcp
pip install -r requirements.txt2. Configurar Credentials
Ya está configurado en .env:
GLM_BASE_URL=https://api.z.ai/api/anthropic
GLM_AUTH_TOKEN=5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB3. Registrar Servidor MCP
Añadir a ~/.claude/settings.json:
{
"mcpServers": {
"ccglm-mcp": {
"command": "python3",
"args": ["/home/manu/IA/ccglm-mcp/ccglm_mcp_server.py"],
"timeout": 300000
}
}
}4. Configurar Alias (Opcional)
Añadir a ~/.zshrc:
# Z.AI GLM Integration
export GLM_API_TOKEN="5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB"
alias ccglm='ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic ANTHROPIC_AUTH_TOKEN=$GLM_API_TOKEN claude --dangerously-skip-permissions -c'Recargar:
source ~/.zshrc🛠️ Herramienta Disponible
glm_route
Única herramienta del servidor CCGLM-MCP. Enruta prompt a GLM-4.6 vía Claude CLI con backend Z.AI. Maneja todos los casos de uso: generación de código, análisis profundo y consultas generales.
Uso desde Claude Code:
Usa la herramienta mcp__ccglm-mcp__glm_route con el prompt: "Tu tarea aquí"Uso con hashtag (configurado en CLAUDE.md):
#ccglm Explica qué es recursión
#ccglm Genera una API REST en Python
#ccglm Analiza este código en detalleCaracterísticas:
✅ Generación de código con tracking de archivos
✅ Análisis profundo (timeout 30 minutos)
✅ Consultas generales
✅ Excluye archivos internos (.claude/, .git/, etc.) del tracking
Nota: Usa el modelo GLM-4.6 configurado en ~/.claude/settings.json.
🧪 Testing
Ejecutar tests:
cd ~/IA/ccglm-mcp
python3 test_server.pyTests incluidos:
✅ File tracking (detección de archivos creados)
✅ Log sanitization (redacción de tokens)
⏸️ Basic prompt (comentado - requiere API call)
⏸️ Code generation (comentado - requiere API call)
🔒 Seguridad
Token protegido: Almacenado en
.env(gitignored)Logs sanitizados: Token redactado automáticamente en logs
Environment isolation: Variables de entorno inyectadas solo en subprocess
Permisos:
.envdebe tener permisos 0600
📊 Logging
Todos los logs van a stderr (no stdout) para no interferir con el protocolo MCP stdio.
Ver logs en tiempo real:
python3 /home/manu/IA/ccglm-mcp/ccglm_mcp_server.py 2>&1 | grep -i glmNiveles de log:
INFO: Operaciones normalesWARNING: Situaciones anómalasERROR: Fallos
⚙️ Configuración Avanzada
Timeouts
Configurados en ccglm_mcp_server.py:
DEFAULT_TIMEOUT = 600(10 minutos)MAX_TIMEOUT = 2400(40 minutos)
Flags de Claude CLI
El servidor ejecuta Claude CLI con:
claude --dangerously-skip-permissions -c -p--dangerously-skip-permissions: Skip permissions prompts-c: Continue mode-p: Print mode (non-interactive)
🐛 Troubleshooting
Error: "claude command not found"
Verifica que Claude CLI está instalado:
which claudeSi no está, instalar:
npm install -g @anthropic-ai/claude-codeError: "GLM authentication failed"
Verifica que el token en .env es correcto y está activo.
Timeout errors
Si GLM tarda mucho, aumenta los timeouts en ccglm_mcp_server.py.
No aparece en herramientas MCP
Verifica registro en
~/.claude/settings.jsonReinicia Claude Code
Verifica logs:
python3 ccglm_mcp_server.py
📝 Uso desde Terminal
Además del servidor MCP, puedes usar GLM directamente desde terminal con el alias:
# Uso interactivo
ccglm
# Con prompt directo
echo "Explain recursion" | ccglm🔄 Actualización
Para actualizar el servidor:
cd ~/IA/ccglm-mcp
git pull # Si está en git
pip install -r requirements.txt --upgradeReiniciar Claude Code para recargar el servidor MCP.
📚 Referencias
🤝 Créditos
Basado en patrón de
ccr-mcpIntegración con Z.AI GLM API
Implementado como parte del ecosistema Claude hybrid system
📄 Licencia
Uso interno - No redistribuir con credentials
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/nosolosoft/ccglm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server