Skip to main content
Glama

CiteAssist MCP 服务器

铁匠徽章

模型上下文协议 (MCP) 服务器,提供来自 CiteAs 和 Google Scholar 的 BibTeX 格式的引文数据。将引文检索功能直接集成到您的应用程序中,增强您的研究工作流程。

成分

工具

  • get_citeas_data - 从 CiteAs 检索指定资源的 BibTeX 格式的引用

    • resource (字符串,必需):DOI、URL、关键字

  • get_scholar_data - 从 Google Scholar 检索 BibTeX 格式的引文

    • query (字符串,必需):搜索查询

    • results (整数,可选):结果数量(默认值:2)

Related MCP server: Semantic Scholar MCP Server

快速入门

安装

克劳德桌面

在 MacOS 上: ~/Library/Application\ Support/Claude/claude_desktop_config.json

在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json

开发/未发布的服务器配置:

"mcpServers": {
  "reference-mcp": {
    "command": "uv",
    "args": [
      "--directory",
      "/path/to/project/dir",
      "run",
      "reference-mcp"
    ]
  }
}

已发布的服务器配置:

"mcpServers": {
  "reference-mcp": {
    "command": "uvx",
    "args": [
      "reference-mcp"
    ]
  }
}

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装reference-mcp:

npx -y @smithery/cli install @ndchikin/reference-mcp --client claude

发展

构建和发布

准备分发包:

  1. 同步依赖项并更新锁文件:

uv sync
  1. 构建软件包分发版:

uv build

这将在dist/目录中创建源和轮子分布。

  1. 发布到 PyPI:

uv publish

注意:您需要通过环境变量或命令标志设置 PyPI 凭据:

  • 令牌: --tokenUV_PUBLISH_TOKEN

  • 或用户名/密码: --username / UV_PUBLISH_USERNAME--password / UV_PUBLISH_PASSWORD

调试

由于 MCP 服务器通过 stdio 运行,调试起来可能比较困难。为了获得最佳调试体验,我们强烈建议使用MCP Inspector

您可以使用以下命令通过npm启动 MCP Inspector:

npx @modelcontextprotocol/inspector uv --directory /path/to/project/dir run reference-mcp

启动后,检查器将显示一个 URL,您可以在浏览器中访问该 URL 以开始调试。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Resources

Looking for Admin?

Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ndchikin/reference-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server