Skip to main content
Glama
Lxy-hqu

Scientific Paper Reading Assistant

by Lxy-hqu

科研论文辅助阅读 MCP 系统(本地版)

本系统基于 MCP (Model Context Protocol) 构建,提供本地 PDF 解析、结构化提取、数学公式深度解析、代码生成与可视化功能。 所有计算均在本地运行,支持通过 Trae 内置大模型或本地 LLM 进行增强。

✨ 功能亮点

  • � 智能摘要与方法论summarizer 支持智能摘要与方法论提取,可自动连接本地 LLM (Ollama) 进行深度内容理解。

  • 🔢 深度数学智能math_explainer 提取公式、构建 AST(抽象语法树),并存入本地 SQLite 数据库。

  • 💻 实验复现辅助code_generator 自动从论文中提取超参数,生成 PyTorch 模型定义与训练脚本。

  • 📊 可视化图表visualization 生成 Mermaid 流程图与变量依赖图。

  • 📑 智能报告生成report_generator 自动生成 Markdown 格式的论文分析报告,包含摘要、结构、可视化图表与代码配置,并确保数学公式正确渲染。

  • 🧠 知识管理:本地数据库 papers.db 自动存储论文元数据、符号定义与实验记录。

🛠️ 部署与安装

前置要求

  • Node.js (v16+)

  • Git

  • (可选) Ollama 用于本地大模型加速 (默认端口 11434)

1. 克隆仓库

git clone https://github.com/Lxy-hqu/-mcp-for-paper-read-based-on-AI-IDE.git
cd -mcp-for-paper-read-based-on-AI-IDE

2. 安装依赖

npm install

3. 编译项目

npx tsc

4. 配置 Trae (或 Cursor)

自动配置 (推荐)

本仓库包含一个 trae_mcp_config.json 模板。你需要将其中的 command 路径修改为你本地 Node.js 的绝对路径args 修改为 server.js绝对路径

Windows 用户示例配置: 打开 Trae 设置 -> MCP Servers -> Edit in settings.json:

{
  "mcpServers": {
    "local-papers": {
      "command": "C:\\Program Files\\nodejs\\node.exe", 
      "args": [
        "E:\\path\\to\\-mcp-for-paper-read-based-on-AI-IDE\\dist\\server.js"
      ],
      "disabled": false,
      "autoApprove": []
    }
  }
}

💡 提示:在终端运行 where node 可获取 Node.js 的安装路径。

5. 验证运行

重启 Trae 后,在 MCP 管理面板中应显示 local-papersConnected 状态。 你可以尝试在对话框中输入:“请使用 pdf_loader 读取这个文件:E:\my_paper.pdf” 来测试。

� 迁移与多机部署

如果你想在另一台机器上运行此服务,有两种方式:

方式一:直接复制目录(便携式)

你可以直接将整个目录(包含 distnode_modules)复制到新机器。 注意事项:

  1. Node.js 环境:新机器必须安装 Node.js

  2. 操作系统一致性:如果你从 Windows 复制到 macOS/Linux,可能会因为 better-sqlite3 等原生依赖不兼容而报错。此时需要在新机器运行 npm rebuild 或删除 node_modules 重新 npm install

  3. 路径配置:在 Trae 的 settings.json 中,必须修改 command (Node 路径) 和 args (server.js 路径) 为新机器上的实际绝对路径。

方式二:重新克隆(推荐)

在每台新机器上重新执行 git clonenpm installnpx tsc。这是最稳健的方法,能确保所有依赖与当前系统完美兼容。

⚠️ 关于数据隐私papers.db 文件存储了已解析的论文数据。直接复制目录会带走此数据库。如果在新机器上需要干净的环境,请删除 papers.db 文件。

�📝 使用指南

数学公式解析

"解析这篇论文的数学公式,并将符号定义存入数据库。"

代码生成

"根据这篇论文的方法部分,生成 PyTorch 模型代码,并提取超参数。"

可视化

"为这篇论文的模型结构生成一个 Mermaid 流程图。"

生成分析报告

"为这篇论文生成一份完整的 Markdown 分析报告。"

📂 项目结构

src/
├── providers/          # 核心功能模块
│   ├── pdf_loader.ts      # PDF 读取
│   ├── structure_parser.ts # 结构化切分
│   ├── math_explainer.ts   # 数学解析 & AST
│   ├── code_generator.ts   # 代码 & Config 生成
│   ├── visualization.ts    # Mermaid 图表生成
│   ├── report_generator.ts # 报告生成
│   └── summarizer.ts       # 智能摘要与方法论
├── database.ts         # SQLite 数据库管理
├── llm_client.ts       # 本地 LLM 连接客户端
├── server.ts           # MCP 服务器入口
└── types.d.ts          # 类型定义

📄 License

MIT

-
security - not tested
F
license - not found
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lxy-hqu/-mcp-for-paper-read-based-on-AI-IDE'

If you have feedback or need assistance with the MCP directory API, please join our Discord server