Logica Context
Logica Context
Tu IA lo olvida todo después de un reinicio de contexto. La nuestra no.
Inicio rápido · Qué lo hace diferente · Las 17 herramientas · Contribución
El problema que todos tienen
Cada servidor de contexto MCP hace lo mismo: ejecuta comandos en un entorno aislado (sandbox), devuelve resúmenes, ahorra tokens. Eso es lo básico.
Aquí está lo que ninguno resuelve:
Tu IA no sabe que tu proyecto existe hasta que se lo explicas. En cada. Sesión. Individual.
El conocimiento muere cuando termina la sesión. Mañana empiezas desde cero.
Tu compañero de equipo indexó la misma base de código ayer. No puedes acceder a nada de eso.
"Encuentra el código de autenticación" no devuelve nada porque el archivo se llama
middleware.ts.No tienes idea de cuánto contexto has consumido. Te enteras cuando la IA empieza a alucinar.
La IA no sabe que acabas de hacer 3 commits. Sigue haciendo referencia al código de ayer.
Logica Context soluciona los seis.
Qué lo hace diferente
1. ADN del proyecto
Otras herramientas: la IA comienza cada sesión a ciegas. Pierdes 5 minutos explicando tu stack.
Logica Context: Una llamada a lctx_scan y la IA conoce permanentemente tu proyecto: lenguajes, frameworks, dependencias, estructura de carpetas, patrones. Indexado. Buscable. Automático.
> lctx_scan
Project DNA: my-saas-app
Stack: Node.js, TypeScript
Frameworks: Next.js, Prisma, Tailwind CSS, Vitest
Languages: TypeScript (142), JavaScript (23), SQL (8)
Patterns: component-based, page-based routing, API layer, CI/CD
Key files: package.json, tsconfig.json, Dockerfile, .env.exampleLa IA ahora conoce tu proyecto antes de que escribas una sola palabra.
2. Memoria entre sesiones
Otras herramientas: la sesión termina, todo desaparece. Vuelves a explicar el contexto cada mañana.
Logica Context: El conocimiento persiste entre sesiones a través de Supabase. Abre una nueva sesión mañana y la IA ya sabe en qué trabajaste, qué indexaste, qué buscaste. Retoma donde lo dejaste.
Ningún otro servidor MCP hace esto.
3. Base de conocimiento del equipo
Otras herramientas: cada desarrollador es una isla. El desarrollador A pasa 30 minutos mapeando la base de código. El desarrollador B hace lo mismo una hora después.
Logica Context: lctx_team_push y lctx_team_search. El desarrollador A indexa algo, el desarrollador B lo encuentra. Base de conocimiento compartida a través de Supabase, con espacios de nombres por proyecto.
Todo tu equipo construye una memoria colectiva de IA.
4. Búsqueda semántica
Otras herramientas: coincidencia de palabras clave. Busca "autenticación" y pierde verifyJWT() porque la palabra "auth" no está en el nombre de la función.
Logica Context: lctx_semantic utiliza embeddings reales (Voyage AI u OpenAI) + pgvector para la búsqueda de similitud. Busca por significado, no por cadenas. "¿Cómo funciona el inicio de sesión?" encuentra tu middleware JWT, tu almacenamiento de sesión, tu flujo OAuth.
La búsqueda por palabras clave FTS5 sigue ahí como la opción predeterminada rápida. La búsqueda semántica se activa cuando tienes una clave API.
5. Presupuesto de contexto
Otras herramientas: no tienes idea de cuánto contexto has consumido hasta que la IA empieza a olvidar cosas.
Logica Context: lctx_budget muestra un panel en tiempo real:
# Context Budget
[▓▓▓▓▓▓▓▓▓▓▓▓▓▓······] 72% used
Tokens consumed: 144,000
Tokens saved: 38,500
Context limit: 200,000
## Recent Tool Usage
Bash in: 2,400 out: 8,200
Read in: 1,800 out: 4,100
lctx_execute in: 200 out: 6,300
⚠ WARNING: Context 72% full. Use lctx tools to save space.Ves exactamente a dónde van tus tokens. Optimizas antes de que sea demasiado tarde.
6. Indexación consciente de Git
Otras herramientas: la IA no sabe que acabas de subir código. Hace referencia a un contexto obsoleto de hace 2 horas.
Logica Context: lctx_git indexa tu rama actual, commits recientes, archivos preparados y resumen de diferencias. La IA comienza cada sesión sabiendo qué cambió.
> lctx_git
Branch: feat/auth-refactor
Ahead: 3 commits
## Staged (2)
+ src/middleware/jwt.ts
+ tests/auth.test.ts
## Recent Commits
a3f8b2c refactor: extract JWT validation into middleware
9e1d445 fix: session expiry race condition
2b7a901 test: add auth integration testsNo más "¿puedes comprobar qué cambié?": la IA ya lo sabe.
7. Agregador MCP
Otras herramientas: tienes 8 servidores MCP cargados. Cada uno añade definiciones de herramientas al contexto. No sabes cuáles te están costando dinero.
Logica Context: lctx_mcp lee tu .mcp.json, enumera cada servidor activo, estima su costo de contexto y recomienda cuáles deshabilitar.
> lctx_mcp
# MCP Servers
Active: 8
Estimated context cost per cycle: ~3,200 tokens
## Servers
supabase npx @supabase/mcp ~800 tokens
notion npx @notion/mcp ~800 tokens
logica-context npx logica-context ~150 tokens
...
## Recommendations
- 8 MCP servers active. Consider disabling unused ones.
- Heavy servers: supabase, notion. Each call uses ~800 tokens.Inicio rápido
{
"logica-context": {
"type": "stdio",
"command": "npx",
"args": ["-y", "logica-context"]
}
}Añádelo a .mcp.json. Reinicia tu IA. Listo.
Habilitar Supabase (para las funciones 2, 3, 4)
SUPABASE_URL=https://your-project.supabase.co
SUPABASE_SERVICE_KEY=your-service-keyHabilitar búsqueda semántica (función 4)
VOYAGE_API_KEY=your-key # or OPENAI_API_KEYLas 17 herramientas
Núcleo (10 herramientas: lo que todo servidor de contexto debería hacer)
Herramienta | Descripción |
| Ejecutar N comandos + N consultas de búsqueda en una llamada |
| Ejecución en sandbox (shell, node, python, ruby, go, swift, rust, deno) |
| Procesar archivos en sandbox |
| Indexar texto en la base de conocimiento |
| Búsqueda de texto completo BM25 con stemming de Porter |
| Obtener URL, convertir HTML a markdown, auto-indexar |
| Estadísticas de la base de conocimiento + sesión |
| Diagnosticar instalación |
| Buscar actualizaciones |
| Borrar base de conocimiento |
Exclusivas (7 herramientas: lo que nadie más tiene)
Herramienta | Descripción |
| ADN del proyecto: detección automática de stack, lenguajes, frameworks, patrones |
| Búsqueda semántica mediante embeddings (Voyage AI / OpenAI + pgvector) |
| Presupuesto de contexto: seguimiento de tokens con barra visual + advertencias |
| Indexación consciente de Git: rama, diff, commits, archivos modificados |
| Agregador MCP: listar servidores, estimar costo de contexto, optimizar |
| Enviar a la base de conocimiento del equipo (compartida vía Supabase) |
| Buscar en la base de conocimiento del equipo |
Benchmarks
Escenario | Sin | Con | Ahorro |
| ~8,000 tokens | ~200 tokens | 97.5% |
| ~4,000 tokens | ~150 tokens | 96.3% |
| ~12,000 tokens | ~300 tokens | 97.5% |
Obtener página HTML de 50KB | ~12,500 tokens | ~500 tokens | 96.0% |
vs. Todo lo demás
Logica Context | context-mode | Herramientas básicas | |
Sandbox + indexación | Sí | Sí | No |
ADN del proyecto | Sí | No | No |
Memoria entre sesiones | Sí | No | No |
Base de conocimiento del equipo | Sí | No | No |
Búsqueda semántica | Sí | No | No |
Presupuesto de contexto | Sí | No | No |
Indexación consciente de Git | Sí | No | No |
Agregador MCP | Sí | No | No |
Continuidad de sesión | Sí | Sí | No |
Capa de seguridad | Sí | Parcial | No |
Licencia | MIT | Elastic-2.0 | — |
Plataformas
Funciona con Claude Code, Cursor, Gemini CLI, VS Code Copilot, Codex, Kiro, Zed y OpenCode. Consulta configs/ para la configuración por plataforma.
Seguridad
Validación de comandos, restricciones de ruta, saneamiento de salida, ejecución en sandbox con tiempos de espera. Consulta SECURITY.md.
Desarrollo
git clone https://github.com/Rovemark/logica-context.git
cd logica-context
npm install && npm test && npm run buildLicencia
MIT: úsala como quieras.
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Rovemark/logica-context'
If you have feedback or need assistance with the MCP directory API, please join our Discord server