We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/delonsp/rlm-mcp-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server
.env.example•1.09 KiB
# RLM MCP Server - Variáveis de Ambiente
# Memória máxima para variáveis do REPL (em MB)
# Ajuste conforme RAM disponível na VPS
RLM_MAX_MEMORY_MB=1024
# API Key para autenticação (opcional)
# Se definida, todas as requisições devem incluir este header
RLM_API_KEY=sua-chave-secreta-aqui
# ===== SUB-CHAMADAS LLM (RLM - Recursive Language Model) =====
# Permite que código Python no REPL faça chamadas a LLMs para
# processar chunks de dados, conforme paper MIT CSAIL.
# API Key do OpenAI (obrigatória para usar llm_query)
OPENAI_API_KEY=sk-...
# Modelo padrão para sub-chamadas (gpt-4o-mini é mais barato)
RLM_SUB_MODEL=gpt-4o-mini
# Limite de sub-chamadas por execução (segurança contra loops infinitos)
RLM_MAX_SUB_CALLS=100
# ===== MINIO/S3 (para carregar arquivos grandes) =====
# Permite usar rlm_load_s3() para carregar arquivos diretamente do Minio
# sem passar pelo contexto do Claude Code
# Endpoint do Minio (sem https://)
MINIO_ENDPOINT=s3.seudominio.com
# Credenciais
MINIO_ACCESS_KEY=minioadmin
MINIO_SECRET_KEY=sua-secret-key
# Usar HTTPS? (true/false)
MINIO_SECURE=true