Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@CCGLM MCP Servergenerate a Python function to calculate Fibonacci numbers recursively"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
CCGLM MCP Server
Servidor MCP que permite usar Claude Code con backend GLM de Z.AI desde la instancia principal de Claude Code (Anthropic Sonnet).
🎯 Propósito
Permite a Claude Code (con Sonnet de Anthropic) invocar otra instancia de Claude Code que utiliza los modelos GLM de Z.AI como backend, sin necesidad de cambiar la configuración principal.
🏗️ Arquitectura
Claude Code (Sonnet Anthropic)
↓
MCP Tool: mcp__ccglm-mcp__glm_route
↓
CCGLM MCP Server
↓
Claude CLI con env vars GLM
↓
Z.AI GLM API (https://api.z.ai/api/anthropic)
↓
Modelo GLM-4.6📦 Instalación
1. Instalar Dependencias
cd ~/IA/ccglm-mcp
pip install -r requirements.txt2. Configurar Credentials
Ya está configurado en .env:
GLM_BASE_URL=https://api.z.ai/api/anthropic
GLM_AUTH_TOKEN=5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB3. Registrar Servidor MCP
Añadir a ~/.claude/settings.json:
{
"mcpServers": {
"ccglm-mcp": {
"command": "python3",
"args": ["/home/manu/IA/ccglm-mcp/ccglm_mcp_server.py"],
"timeout": 300000
}
}
}4. Configurar Alias (Opcional)
Añadir a ~/.zshrc:
# Z.AI GLM Integration
export GLM_API_TOKEN="5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB"
alias ccglm='ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic ANTHROPIC_AUTH_TOKEN=$GLM_API_TOKEN claude --dangerously-skip-permissions -c'Recargar:
source ~/.zshrc🛠️ Herramienta Disponible
glm_route
Única herramienta del servidor CCGLM-MCP. Enruta prompt a GLM-4.6 vía Claude CLI con backend Z.AI. Maneja todos los casos de uso: generación de código, análisis profundo y consultas generales.
Uso desde Claude Code:
Usa la herramienta mcp__ccglm-mcp__glm_route con el prompt: "Tu tarea aquí"Uso con hashtag (configurado en CLAUDE.md):
#ccglm Explica qué es recursión
#ccglm Genera una API REST en Python
#ccglm Analiza este código en detalleCaracterísticas:
✅ Generación de código con tracking de archivos
✅ Análisis profundo (timeout 30 minutos)
✅ Consultas generales
✅ Excluye archivos internos (.claude/, .git/, etc.) del tracking
Nota: Usa el modelo GLM-4.6 configurado en ~/.claude/settings.json.
🧪 Testing
Ejecutar tests:
cd ~/IA/ccglm-mcp
python3 test_server.pyTests incluidos:
✅ File tracking (detección de archivos creados)
✅ Log sanitization (redacción de tokens)
⏸️ Basic prompt (comentado - requiere API call)
⏸️ Code generation (comentado - requiere API call)
🔒 Seguridad
Token protegido: Almacenado en
.env(gitignored)Logs sanitizados: Token redactado automáticamente en logs
Environment isolation: Variables de entorno inyectadas solo en subprocess
Permisos:
.envdebe tener permisos 0600
📊 Logging
Todos los logs van a stderr (no stdout) para no interferir con el protocolo MCP stdio.
Ver logs en tiempo real:
python3 /home/manu/IA/ccglm-mcp/ccglm_mcp_server.py 2>&1 | grep -i glmNiveles de log:
INFO: Operaciones normalesWARNING: Situaciones anómalasERROR: Fallos
⚙️ Configuración Avanzada
Timeouts
Configurados en ccglm_mcp_server.py:
DEFAULT_TIMEOUT = 600(10 minutos)MAX_TIMEOUT = 2400(40 minutos)
Flags de Claude CLI
El servidor ejecuta Claude CLI con:
claude --dangerously-skip-permissions -c -p--dangerously-skip-permissions: Skip permissions prompts-c: Continue mode-p: Print mode (non-interactive)
🐛 Troubleshooting
Error: "claude command not found"
Verifica que Claude CLI está instalado:
which claudeSi no está, instalar:
npm install -g @anthropic-ai/claude-codeError: "GLM authentication failed"
Verifica que el token en .env es correcto y está activo.
Timeout errors
Si GLM tarda mucho, aumenta los timeouts en ccglm_mcp_server.py.
No aparece en herramientas MCP
Verifica registro en
~/.claude/settings.jsonReinicia Claude Code
Verifica logs:
python3 ccglm_mcp_server.py
📝 Uso desde Terminal
Además del servidor MCP, puedes usar GLM directamente desde terminal con el alias:
# Uso interactivo
ccglm
# Con prompt directo
echo "Explain recursion" | ccglm🔄 Actualización
Para actualizar el servidor:
cd ~/IA/ccglm-mcp
git pull # Si está en git
pip install -r requirements.txt --upgradeReiniciar Claude Code para recargar el servidor MCP.
📚 Referencias
🤝 Créditos
Basado en patrón de
ccr-mcpIntegración con Z.AI GLM API
Implementado como parte del ecosistema Claude hybrid system
📄 Licencia
Uso interno - No redistribuir con credentials