Skip to main content
Glama

Logica Context

npm version install License: MIT CI Node.js >=18 MCP Compatible

Tu IA lo olvida todo después de un reinicio de contexto. La nuestra no.

Inicio rápido · Qué lo hace diferente · Las 17 herramientas · Contribución


El problema que todos tienen

Cada servidor de contexto MCP hace lo mismo: ejecuta comandos en un entorno aislado (sandbox), devuelve resúmenes, ahorra tokens. Eso es lo básico.

Aquí está lo que ninguno resuelve:

  • Tu IA no sabe que tu proyecto existe hasta que se lo explicas. En cada. Sesión. Individual.

  • El conocimiento muere cuando termina la sesión. Mañana empiezas desde cero.

  • Tu compañero de equipo indexó la misma base de código ayer. No puedes acceder a nada de eso.

  • "Encuentra el código de autenticación" no devuelve nada porque el archivo se llama middleware.ts.

  • No tienes idea de cuánto contexto has consumido. Te enteras cuando la IA empieza a alucinar.

  • La IA no sabe que acabas de hacer 3 commits. Sigue haciendo referencia al código de ayer.

Logica Context soluciona los seis.

Qué lo hace diferente

1. ADN del proyecto

Otras herramientas: la IA comienza cada sesión a ciegas. Pierdes 5 minutos explicando tu stack.

Logica Context: Una llamada a lctx_scan y la IA conoce permanentemente tu proyecto: lenguajes, frameworks, dependencias, estructura de carpetas, patrones. Indexado. Buscable. Automático.

> lctx_scan

Project DNA: my-saas-app
  Stack: Node.js, TypeScript
  Frameworks: Next.js, Prisma, Tailwind CSS, Vitest
  Languages: TypeScript (142), JavaScript (23), SQL (8)
  Patterns: component-based, page-based routing, API layer, CI/CD
  Key files: package.json, tsconfig.json, Dockerfile, .env.example

La IA ahora conoce tu proyecto antes de que escribas una sola palabra.


2. Memoria entre sesiones

Otras herramientas: la sesión termina, todo desaparece. Vuelves a explicar el contexto cada mañana.

Logica Context: El conocimiento persiste entre sesiones a través de Supabase. Abre una nueva sesión mañana y la IA ya sabe en qué trabajaste, qué indexaste, qué buscaste. Retoma donde lo dejaste.

Ningún otro servidor MCP hace esto.


3. Base de conocimiento del equipo

Otras herramientas: cada desarrollador es una isla. El desarrollador A pasa 30 minutos mapeando la base de código. El desarrollador B hace lo mismo una hora después.

Logica Context: lctx_team_push y lctx_team_search. El desarrollador A indexa algo, el desarrollador B lo encuentra. Base de conocimiento compartida a través de Supabase, con espacios de nombres por proyecto.

Todo tu equipo construye una memoria colectiva de IA.


4. Búsqueda semántica

Otras herramientas: coincidencia de palabras clave. Busca "autenticación" y pierde verifyJWT() porque la palabra "auth" no está en el nombre de la función.

Logica Context: lctx_semantic utiliza embeddings reales (Voyage AI u OpenAI) + pgvector para la búsqueda de similitud. Busca por significado, no por cadenas. "¿Cómo funciona el inicio de sesión?" encuentra tu middleware JWT, tu almacenamiento de sesión, tu flujo OAuth.

La búsqueda por palabras clave FTS5 sigue ahí como la opción predeterminada rápida. La búsqueda semántica se activa cuando tienes una clave API.


5. Presupuesto de contexto

Otras herramientas: no tienes idea de cuánto contexto has consumido hasta que la IA empieza a olvidar cosas.

Logica Context: lctx_budget muestra un panel en tiempo real:

# Context Budget

[▓▓▓▓▓▓▓▓▓▓▓▓▓▓······] 72% used

Tokens consumed: 144,000
Tokens saved:    38,500
Context limit:   200,000

## Recent Tool Usage
  Bash                 in:    2,400  out:    8,200
  Read                 in:    1,800  out:    4,100
  lctx_execute         in:      200  out:    6,300

⚠ WARNING: Context 72% full. Use lctx tools to save space.

Ves exactamente a dónde van tus tokens. Optimizas antes de que sea demasiado tarde.


6. Indexación consciente de Git

Otras herramientas: la IA no sabe que acabas de subir código. Hace referencia a un contexto obsoleto de hace 2 horas.

Logica Context: lctx_git indexa tu rama actual, commits recientes, archivos preparados y resumen de diferencias. La IA comienza cada sesión sabiendo qué cambió.

> lctx_git

Branch: feat/auth-refactor
Ahead: 3 commits

## Staged (2)
  + src/middleware/jwt.ts
  + tests/auth.test.ts

## Recent Commits
  a3f8b2c refactor: extract JWT validation into middleware
  9e1d445 fix: session expiry race condition
  2b7a901 test: add auth integration tests

No más "¿puedes comprobar qué cambié?": la IA ya lo sabe.


7. Agregador MCP

Otras herramientas: tienes 8 servidores MCP cargados. Cada uno añade definiciones de herramientas al contexto. No sabes cuáles te están costando dinero.

Logica Context: lctx_mcp lee tu .mcp.json, enumera cada servidor activo, estima su costo de contexto y recomienda cuáles deshabilitar.

> lctx_mcp

# MCP Servers

Active: 8
Estimated context cost per cycle: ~3,200 tokens

## Servers
  supabase               npx @supabase/mcp      ~800 tokens
  notion                 npx @notion/mcp         ~800 tokens
  logica-context         npx logica-context       ~150 tokens
  ...

## Recommendations
  - 8 MCP servers active. Consider disabling unused ones.
  - Heavy servers: supabase, notion. Each call uses ~800 tokens.

Inicio rápido

{
  "logica-context": {
    "type": "stdio",
    "command": "npx",
    "args": ["-y", "logica-context"]
  }
}

Añádelo a .mcp.json. Reinicia tu IA. Listo.

Habilitar Supabase (para las funciones 2, 3, 4)

SUPABASE_URL=https://your-project.supabase.co
SUPABASE_SERVICE_KEY=your-service-key

Habilitar búsqueda semántica (función 4)

VOYAGE_API_KEY=your-key    # or OPENAI_API_KEY

Las 17 herramientas

Núcleo (10 herramientas: lo que todo servidor de contexto debería hacer)

Herramienta

Descripción

lctx_batch_execute

Ejecutar N comandos + N consultas de búsqueda en una llamada

lctx_execute

Ejecución en sandbox (shell, node, python, ruby, go, swift, rust, deno)

lctx_execute_file

Procesar archivos en sandbox

lctx_index

Indexar texto en la base de conocimiento

lctx_search

Búsqueda de texto completo BM25 con stemming de Porter

lctx_fetch_and_index

Obtener URL, convertir HTML a markdown, auto-indexar

lctx_stats

Estadísticas de la base de conocimiento + sesión

lctx_doctor

Diagnosticar instalación

lctx_upgrade

Buscar actualizaciones

lctx_purge

Borrar base de conocimiento

Exclusivas (7 herramientas: lo que nadie más tiene)

Herramienta

Descripción

lctx_scan

ADN del proyecto: detección automática de stack, lenguajes, frameworks, patrones

lctx_semantic

Búsqueda semántica mediante embeddings (Voyage AI / OpenAI + pgvector)

lctx_budget

Presupuesto de contexto: seguimiento de tokens con barra visual + advertencias

lctx_git

Indexación consciente de Git: rama, diff, commits, archivos modificados

lctx_mcp

Agregador MCP: listar servidores, estimar costo de contexto, optimizar

lctx_team_push

Enviar a la base de conocimiento del equipo (compartida vía Supabase)

lctx_team_search

Buscar en la base de conocimiento del equipo

Benchmarks

Escenario

Sin

Con

Ahorro

git log (100 commits)

~8,000 tokens

~200 tokens

97.5%

cat archivo de 500 líneas

~4,000 tokens

~150 tokens

96.3%

npm ls --all

~12,000 tokens

~300 tokens

97.5%

Obtener página HTML de 50KB

~12,500 tokens

~500 tokens

96.0%

vs. Todo lo demás

Logica Context

context-mode

Herramientas básicas

Sandbox + indexación

No

ADN del proyecto

No

No

Memoria entre sesiones

No

No

Base de conocimiento del equipo

No

No

Búsqueda semántica

No

No

Presupuesto de contexto

No

No

Indexación consciente de Git

No

No

Agregador MCP

No

No

Continuidad de sesión

No

Capa de seguridad

Parcial

No

Licencia

MIT

Elastic-2.0

Plataformas

Funciona con Claude Code, Cursor, Gemini CLI, VS Code Copilot, Codex, Kiro, Zed y OpenCode. Consulta configs/ para la configuración por plataforma.

Seguridad

Validación de comandos, restricciones de ruta, saneamiento de salida, ejecución en sandbox con tiempos de espera. Consulta SECURITY.md.

Desarrollo

git clone https://github.com/Rovemark/logica-context.git
cd logica-context
npm install && npm test && npm run build

Licencia

MIT: úsala como quieras.


-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Rovemark/logica-context'

If you have feedback or need assistance with the MCP directory API, please join our Discord server