Skip to main content
Glama

Branch Thinking

🚦 分支思维 MCP 工具

Node.jsTypeScript微胶囊钙MIT 许可证@dagrejs/graphlibml-k均值lru缓存@xenova/变形金刚@modelcontextprotocol/sdk粉笔美人鱼下午

新功能 (2025-04):

  • 高级可视化:聚类(k-means/度)、中心性覆盖、边缘捆绑以及任务和优先级的代理覆盖
  • 代理缓存和预取:用于嵌入、摘要、分析和主动代理缓存预热的 LRU+TTL 缓存
  • 增强分析:实时、多分支和 focusNode 支持;代理优化元数据
  • 为代理和用户升级文档和入职培训

特征

  • 🌳**分支管理:**创建、聚焦和导航多条思路
  • 🔗**交叉引用:**跨分支链接相关想法(输入、评分)
  • 💡 **AI Insights:**自动洞察和摘要生成
  • 🧠**语义搜索:**使用嵌入查找相关想法
  • 📊高级可视化:
    • 节点聚类(k-means/度)
    • 中心性覆盖(接近度、中介度)
    • 边缘捆绑
    • 任务覆盖(状态、优先级、下一步行动)
    • 所有节点/边的代理覆盖和元数据
    • FocusNode 和多分支可视化
  • Agentic 缓存和预取:
    • 用于嵌入、摘要、分析的 LRU+TTL 缓存
    • 代理工作流程的主动缓存预热
  • 🗂️**持久存储:**可查询、可扩展,并且永远不会丢失任何想法
  • 🔄**实时和多分支:**实时可视化和分析多个分支和节点
  • 🛠️**生产级:**强大的错误处理、性能优化以及代理/人性化的 API

🛠️ 技术栈

  • Node.js (18 岁以上)
  • TypeScript (4.x)
  • @dagrejs/graphlib :图形结构、算法和分析
  • ml-kmeans :可视化聚类
  • lru-cache :用于嵌入、摘要、分析的 LRU+TTL 缓存
  • @xenova/transformers :嵌入和摘要管道
  • @modelcontextprotocol/sdk :MCP 协议和代理集成
  • chalk :CLI 输出样式
  • 美人鱼:甘特图/路线图可视化
  • pnpm :快速依赖管理

路线图(甘特图)


目录


为什么要采用分支思维?

  • **Agentic 设计:**专为人类和 AI 工作流程打造 - 每个命令都对代理友好。
  • **真正的分支:**并行组织、交叉链接和推理想法、代码和任务。
  • **AI-Native:**开箱即用的语义搜索、自动摘要和洞察生成。
  • **持久且可视化:**永远不会失去任何想法——一切都是可查询的、可可视化的和可扩展的。

概括

Branch-Thinking MCP 工具是一个先进的代理平台,用于管理、可视化和推理分支思维、任务、代码和知识。它使 AI 代理和人类能够使用强大的基于分支的范式来组织复杂的项目、交叉链接想法并自动生成洞察。凭借语义搜索、可视化和持久任务/代码管理功能,它专为下一代协作和自主工作流而设计。

Branch-Thinking MCP 工具是一个先进的代理平台,用于管理、可视化和推理分支思维、任务、代码和知识。它使 AI 代理和人类能够使用强大的基于分支的范式来组织复杂的项目、交叉链接想法并自动生成洞察。凭借语义搜索、可视化和持久任务/代码管理功能,它专为下一代协作和自主工作流而设计。


架构与流程


快速入门

几秒钟内即可启动并运行:

pnpm install # Recommended for speed (or npm install) pnpm build node dist/index.js --help # See available commands

入门

1. 克隆并安装

git clone https://github.com/your-org/branch-thinking-mcp.git cd branch-thinking-mcp pnpm install # Or npm install pnpm build # Or npm run build

2.配置(可选)

对于 Claude Desktop 集成,请添加到您的claude_desktop_config.json

"branch-thinking": { "command": "node", "args": [ "/your-custom-mcp-dir-here/branch-thinking/dist/index.js" ] }

3. 运行

node dist/index.js

实际使用方法

1. 知识捕获与链接

# Batch capture meeting notes add-thought dev "Discussed semantic search improvements" note add-thought dev "Agreed to refactor API" decision # Link related thoughts link-thoughts t1 t2 supports "API refactor supports search improvements"

2. 代理任务提取

# Extract and manage tasks from a research branch extract-tasks research list-tasks research open update-task-status task-1 in_progress

3. 可视化洞察

# Generate and interpret a knowledge graph visualize dev # Review AI-generated summary summarize-branch dev

🧑‍💻 实例:Agentic 工作流

# 1. Create a new branch for your project or idea create-branch "AI Research" # 2. Add thoughts and observations add-thought [branchId] "Explore semantic search for agent workflows" analysis add-thought [branchId] "Test cross-linking and summarization" observation # 3. Link related thoughts link-thoughts [thoughtId1] [thoughtId2] supports "Thought 2 validates Thought 1" # 4. See your knowledge graph visualize [branchId] # 5. Extract tasks and get AI review extract-tasks [branchId] review-branch [branchId]

[branchId][thoughtIdX]替换为listhistory中的实际 ID。


命令参考

分支机构管理

命令描述
list显示所有分支及状态
focus [branchId]将焦点切换到分支
history [branchId?]显示思想历史
summarize-branch [branchId?]分支机构的AI摘要
review-branch [branchId?]分支机构的AI审查
visualize [branchId?]连接可视化图表

思想与洞察管理

命令描述
insights [branchId?]获取人工智能生成的洞察
crossrefs [branchId?]显示交叉引用
hub-thoughts [branchId?]列出中心想法
semantic-search [query]寻找类似的想法
link-thoughts [from] [to] [type] [reason?]链接两个想法
add-snippet [content] [tags]保存代码片段
snippet-search [query]搜索代码片段
doc-thought [thoughtId]记录一个想法

任务管理

命令描述
extract-tasks [branchId?]提取可操作的项目
list-tasks [branchId] [status] [assignee] [due]列出/过滤任务
update-task-status [taskId] [status]更新任务状态
summarize-tasks [branchId]总结任务

人工智能与知识

命令描述
ask [question]知识库的AI答案

最佳实践

  • 始终从create-branch开始以确保上下文清晰。
  • 使用listfocus在项目或思路之间进行导航。
  • 利用summarize-branch和添加一些想法后的insights来获取 AI 生成的上下文。
  • 使用link-thoughts明确地连接想法、任务或代码,以获得更丰富的语义图。
  • 代码更改后,始终运行pnpm lintpnpm build以尽早发现错误。
  • 将复杂的目标分解为一系列的思想/任务/洞察命令。
  • 迭代和调整:使用摘要、评论和可视化的反馈来改进下一步行动。
  • 明确指定参数(branchId、status、assignee等)以获得精确的结果。
  • 使用交叉引用和多跳链接来培养创造力和沟通思想。
  • 提示代理(Claude、GPT-4 等)“逐步思考”或“使用思路链”以获得最佳结果。

安全

  • 所有持久数据都存储在本地(默认:项目目录或MCP_STORAGE_PATH
  • 除非配置,否则无外部 API 调用
  • 代理/用户负责存储想法和任务的隐私
  • 要报告安全问题,请打开问题或向维护人员发送电子邮件。

故障排除和常见问题解答

**问:该工具没有响应!**答:检查 MCP 服务器日志并确保配置正确。

**问:如何重置存储?**答:删除或移动持久存储目录(参见配置)。

**问:如何添加新命令?**答:在src/index.ts中扩展handleCommand并在 README 中记录。

可访问性和国际化

  • 所有徽章/图像都有描述性替代文本。
  • 英语是默认语言;欢迎提供翻译贡献。
  • 如果您想帮助本地化此工具,请打开 PR 或问题。

贡献

欢迎贡献代码、提交问题和功能请求!请在 GitHub 上提交 PR 或问题。

  1. Fork此仓库
  2. 创建新分支( git checkout -b feature/your-feature
  3. 提交你的更改
  4. 推送到分支
  5. 打开拉取请求

参考文献和相关项目


致谢

  • 概念与测试: @ssdeanx
  • 核心代码生成: Claude、GPT-4 和 Cascade
  • 实施、修复和文档: @ssdeanx

执照

麻省理工学院

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    An MCP server for navigating thought processes using branches, supporting thought cross-references and priority tracking to enhance insight generation and structured idea exploration.
    Last updated -
    1
    20
    TypeScript
    MIT License
  • A
    security
    A
    license
    A
    quality
    An adaptation of the MCP Sequential Thinking Server designed to guide tool usage in problem-solving. This server helps break down complex problems into manageable steps and provides recommendations for which MCP tools would be most effective at each stage.
    Last updated -
    1
    714
    172
    TypeScript
    MIT License
  • -
    security
    A
    license
    -
    quality
    An MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.
    Last updated -
    48
    Python
    MIT License
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ssdeanx/branch-thinking-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server