Skip to main content
Glama

NexusMind

by SaptaDey

🧠 NexusMind

通过思维图进行智能科学推理

🔍 概述

NexusMind 利用图结构进行复杂的科学推理。它实现了模型上下文协议 (MCP) ,以便与 Claude Desktop 等 AI 应用程序集成。

主要亮点:

  • 使用基于图的推理处理复杂的科学查询
  • 通过多维评估进行动态置信度评分
  • 采用现代 Python 和 FastAPI 构建,以实现高性能
  • Docker化,易于部署
  • 模块化设计,可扩展、可定制

🌟 主要特点

8阶段推理流程

核心推理过程遵循复杂的 8 阶段流程:

  1. 🌱 初始化
    • 根据查询创建根节点
    • 建立初始图形结构
    • 设定信心基线
  2. 🧩 分解
    • 将查询分解为维度
    • 识别关键组件
    • 创建维度节点
  3. 🔬 假设/计划
    • 产生多个假设
    • 创建推理策略
    • 建立伪造标准
  4. 📊 证据整合
    • 收集支持证据
    • 将证据与假设联系起来
    • 更新置信度分数
  5. ✂️ 修剪/合并
    • 删除低价值元素
    • 合并相似节点
    • 优化图形结构
  6. 🔍 子图提取
    • 识别相关部分
    • 专注于高价值路径
    • 创建目标子图
  7. 📝 构图
    • 总结主要发现
    • 创造连贯的见解
    • 生成全面的答案
  8. 🤔 反思
    • 评估推理质量
    • 确定改进领域
    • 最终信心评估

技术能力

  • 🧠 图形知识表示:使用networkx来建模复杂的关系
  • 🔄 动态置信向量
    • 实证支持
    • 理论基础
    • 方法论的严谨性
    • 共识对齐
  • 🔌 MCP 服务器:无缝集成 Claude Desktop
  • ⚡ 高性能 API :现代 FastAPI 实现
  • 🐳 轻松部署:支持 Docker 和 Docker Compose
  • 🧩 可扩展架构:模块化组件,可定制
  • ⚙️ 灵活的配置:Pydantic 和 YAML 配置

🛠️ 技术栈

📂 项目结构

asr-got-reimagined/ ├── config/ │ ├── settings.yaml │ └── claude_mcp_config.json ├── src/asr_got_reimagined/ │ ├── api/ │ │ ├── routes/ │ │ │ └── mcp.py │ │ └── schemas.py │ ├── domain/ │ │ ├── models/ │ │ │ ├── common.py │ │ │ ├── graph_elements.py │ │ │ └── graph_state.py │ │ ├── services/ │ │ │ └── got_processor.py │ │ ├── stages/ │ │ │ ├── base_stage.py │ │ │ ├── stage_1_*.py │ │ │ └── stage_2_*.py... │ │ └── utils/ │ ├── main.py │ └── app_setup.py ├── scripts/ ├── Dockerfile ├── docker-compose.yml └── pyproject.toml

🚀 入门

先决条件

  • Python 3.13+ (Docker 镜像使用 Python 3.13.3-slim-bookworm)
  • Poetry :用于依赖管理
  • DockerDocker Compose :用于容器化部署

安装和设置(本地开发)

  1. 克隆存储库
    git clone https://github.com/SaptaDey/NexusMind.git cd NexusMind
  2. 使用 Poetry 安装依赖项
    poetry install
    这将创建一个虚拟环境并安装pyproject.toml中指定的所有必要包。
  3. 激活虚拟环境
    poetry shell
  4. 配置应用程序
    • 根据需要调整config/settings.yaml中的设置
    • 为敏感信息配置环境变量或.env文件
  5. 运行开发服务器
    python src/asr_got_reimagined/main.py
    或者,为了获得更多控制:
    uvicorn asr_got_reimagined.main:app --reload --host 0.0.0.0 --port 8000
    API 将在http://localhost:8000上可用。

Docker 部署

  1. 构建并运行 Docker 容器
    docker-compose up --build
    对于分离模式:
    docker-compose up --build -d
    Docker 镜像使用 Python 3.13.3-slim-bookworm 作为基础镜像,以提高性能和安全性。
  2. 访问 API :可通过http://localhost:8000访问 API(或按照docker-compose.yml中的配置)。

🔌 API 端点

核心端点

  • MCP 端点: POST /mcp
    • 用于与 Claude Desktop 等 MCP 客户端进行通信
    • 实现用于 AI 交互的模型上下文协议
  • 健康检查GET /health
    • 用于监控和服务发现的基本健康检查

附加端点(计划中)

  • 图形查询POST /api/graph/query
    • ASR-GoT 查询的直接接口
  • 图形状态GET /api/graph/{session_id}
    • 检索推理图的当前状态
  • 分析GET /api/analytics/{session_id}
    • 获取有关推理过程的指标

🧪 测试与质量

开发工具

  • 类型安全
    • 使用mypy.inipyrightconfig.json配置
    • 使用python scripts/add_type_hints.py修复记录器类型问题
  • 代码质量
    • 具有类型注释的完全类型代码库
    • 可用的预提交钩子: poetry run pre-commit install
    • 使用 Ruff 自动格式化
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP 服务器利用图形结构通过 8 阶段处理管道执行复杂的科学推理,使 AI 系统能够通过动态置信度评分处理复杂的科学查询。

  1. 通过思维图进行智能科学推理
    1. 🔍 概述
      1. 🌟 主要特点
        1. 8阶段推理流程
        2. 技术能力
      2. 🛠️ 技术栈
        1. 📂 项目结构
          1. 🚀 入门
            1. 先决条件
            2. 安装和设置(本地开发)
            3. Docker 部署
          2. 🔌 API 端点
            1. 核心端点
            2. 附加端点(计划中)
          3. 🧪 测试与质量
            1. 开发工具

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            A minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.
            Last updated -
            525
            1
            TypeScript
            MIT License
            • Apple
          • A
            security
            A
            license
            A
            quality
            A sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.
            Last updated -
            1
            174
            13
            TypeScript
            MIT License
            • Apple
            • Linux
          • -
            security
            A
            license
            -
            quality
            An MCP server that allows AI assistants to interact with Foundry datasets, ontology objects, and functions through natural language queries and commands.
            Last updated -
            2
            Python
            MIT License
          • -
            security
            F
            license
            -
            quality
            An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
            Last updated -
            124
            Python
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/SaptaDey/NexusMind'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server