Skip to main content
Glama

Logica Context

npm version install License: MIT CI Node.js >=18 MCP Compatible

你的 AI 在上下文重置后会忘记一切。我们的不会。

快速开始 · 核心差异 · 全部 17 个工具 · 贡献指南


每个人都面临的问题

每个 MCP 上下文服务器都在做同样的事情:在沙箱中运行命令、返回摘要、节省 Token。这只是基本门槛。

以下是它们都没有解决的问题:

  • 在你解释之前,AI 不知道你的项目存在。每一次会话都是如此。

  • 会话结束,知识即刻消失。明天你得从零开始。

  • 你的队友昨天已经索引了相同的代码库。你却无法访问其中的任何内容。

  • 搜索“查找认证代码”返回为空,因为文件名为 middleware.ts

  • 你根本不知道消耗了多少上下文。直到 AI 开始产生幻觉时你才会发现。

  • AI 不知道你刚刚推送了 3 次提交。它引用的仍然是昨天的代码。

Logica Context 解决了以上所有六个问题。

核心差异

1. 项目 DNA (Project DNA)

其他工具:AI 每次会话开始时都是盲目的。你浪费 5 分钟来解释你的技术栈。

Logica Context: 只需调用一次 lctx_scan,AI 就能永久记住你的项目——语言、框架、依赖项、文件夹结构、模式。已索引。可搜索。自动化。

> lctx_scan

Project DNA: my-saas-app
  Stack: Node.js, TypeScript
  Frameworks: Next.js, Prisma, Tailwind CSS, Vitest
  Languages: TypeScript (142), JavaScript (23), SQL (8)
  Patterns: component-based, page-based routing, API layer, CI/CD
  Key files: package.json, tsconfig.json, Dockerfile, .env.example

在你输入第一个字之前,AI 就已经了解你的项目了。


2. 跨会话记忆

其他工具:会话结束,一切归零。你每天早上都要重新解释上下文。

Logica Context: 知识通过 Supabase 在会话间持久化。明天打开新会话时,AI 已经知道你做过什么、索引过什么、搜索过什么。它能从你上次中断的地方继续。

没有其他 MCP 服务器能做到这一点。


3. 团队知识库

其他工具:每个开发者都是一座孤岛。开发者 A 花 30 分钟梳理代码库。开发者 B 一小时后又做了一遍同样的事情。

Logica Context: 使用 lctx_team_pushlctx_team_search。开发者 A 索引了内容,开发者 B 就能找到它。通过 Supabase 实现按项目命名空间的共享知识库。

你的整个团队都在构建集体 AI 记忆。


4. 语义搜索

其他工具:关键词匹配。搜索“authentication”会漏掉 verifyJWT(),因为函数名中没有“auth”这个词。

Logica Context: lctx_semantic 使用真实的嵌入(Voyage AI 或 OpenAI)+ pgvector 进行相似度搜索。按含义而非字符串搜索。“登录是如何工作的?”可以找到你的 JWT 中间件、会话存储和 OAuth 流程。

FTS5 关键词搜索仍然作为快速默认选项存在。当你配置了 API Key 后,语义搜索会自动激活。


5. 上下文预算

其他工具:在 AI 开始遗忘之前,你根本不知道自己消耗了多少上下文。

Logica Context: lctx_budget 显示实时仪表板:

# Context Budget

[▓▓▓▓▓▓▓▓▓▓▓▓▓▓······] 72% used

Tokens consumed: 144,000
Tokens saved:    38,500
Context limit:   200,000

## Recent Tool Usage
  Bash                 in:    2,400  out:    8,200
  Read                 in:    1,800  out:    4,100
  lctx_execute         in:      200  out:    6,300

⚠ WARNING: Context 72% full. Use lctx tools to save space.

你可以清楚地看到 Token 的去向。在为时已晚之前进行优化。


6. Git 感知索引

其他工具:AI 不知道你刚刚推送了代码。它引用的是 2 小时前过时的上下文。

Logica Context: lctx_git 索引你当前的分支、最近的提交、暂存文件和差异摘要。AI 每次会话开始时都知道发生了什么变化。

> lctx_git

Branch: feat/auth-refactor
Ahead: 3 commits

## Staged (2)
  + src/middleware/jwt.ts
  + tests/auth.test.ts

## Recent Commits
  a3f8b2c refactor: extract JWT validation into middleware
  9e1d445 fix: session expiry race condition
  2b7a901 test: add auth integration tests

不再需要问“你能看看我改了什么吗?”——AI 已经知道了。


7. MCP 聚合器

其他工具:你加载了 8 个 MCP 服务器。每一个都会向上下文添加工具定义。你不知道是哪些在消耗你的资源。

Logica Context: lctx_mcp 读取你的 .mcp.json,列出每个活跃服务器,估算它们的上下文成本,并建议禁用哪些。

> lctx_mcp

# MCP Servers

Active: 8
Estimated context cost per cycle: ~3,200 tokens

## Servers
  supabase               npx @supabase/mcp      ~800 tokens
  notion                 npx @notion/mcp         ~800 tokens
  logica-context         npx logica-context       ~150 tokens
  ...

## Recommendations
  - 8 MCP servers active. Consider disabling unused ones.
  - Heavy servers: supabase, notion. Each call uses ~800 tokens.

快速开始

{
  "logica-context": {
    "type": "stdio",
    "command": "npx",
    "args": ["-y", "logica-context"]
  }
}

添加到 .mcp.json。重启你的 AI。完成。

启用 Supabase(用于功能 2、3、4)

SUPABASE_URL=https://your-project.supabase.co
SUPABASE_SERVICE_KEY=your-service-key

启用语义搜索(功能 4)

VOYAGE_API_KEY=your-key    # or OPENAI_API_KEY

全部 17 个工具

核心(10 个工具 —— 每个上下文服务器都应具备)

工具

描述

lctx_batch_execute

一次调用运行 N 个命令 + N 个搜索查询

lctx_execute

沙箱执行(shell, node, python, ruby, go, swift, rust, deno)

lctx_execute_file

在沙箱中处理文件

lctx_index

将文本索引到知识库

lctx_search

带有 Porter 词干提取的 BM25 全文搜索

lctx_fetch_and_index

获取 URL,将 HTML 转换为 Markdown,自动索引

lctx_stats

知识库 + 会话统计信息

lctx_doctor

诊断安装情况

lctx_upgrade

检查更新

lctx_purge

清除知识库

独家(7 个工具 —— 其他人没有的功能)

工具

描述

lctx_scan

项目 DNA —— 自动检测技术栈、语言、框架、模式

lctx_semantic

通过嵌入进行语义搜索(Voyage AI / OpenAI + pgvector)

lctx_budget

上下文预算 —— 带有可视化进度条和警告的 Token 跟踪

lctx_git

Git 感知索引 —— 分支、差异、提交、修改过的文件

lctx_mcp

MCP 聚合器 —— 列出服务器、估算上下文成本、优化

lctx_team_push

推送到团队知识库(通过 Supabase 共享)

lctx_team_search

搜索团队知识库

基准测试

场景

不使用

使用

节省

git log (100 次提交)

~8,000 tokens

~200 tokens

97.5%

cat 500 行文件

~4,000 tokens

~150 tokens

96.3%

npm ls --all

~12,000 tokens

~300 tokens

97.5%

获取 50KB HTML 页面

~12,500 tokens

~500 tokens

96.0%

与其他工具对比

Logica Context

context-mode

原生工具

沙箱 + 索引

项目 DNA

跨会话记忆

团队知识库

语义搜索

上下文预算

Git 感知索引

MCP 聚合器

会话连续性

安全层

部分

许可证

MIT

Elastic-2.0

平台支持

适用于 Claude Code、Cursor、Gemini CLI、VS Code Copilot、Codex、Kiro、Zed 和 OpenCode。请参阅 configs/ 获取各平台的设置说明。

安全性

命令验证、路径限制、输出清理、带超时的沙箱执行。请参阅 SECURITY.md

开发

git clone https://github.com/Rovemark/logica-context.git
cd logica-context
npm install && npm test && npm run build

许可证

MIT — 随心使用。


-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Rovemark/logica-context'

If you have feedback or need assistance with the MCP directory API, please join our Discord server