Skip to main content
Glama
dqhieu
by dqhieu

压缩 MCP

Compresto 的模型上下文协议 (MCP) 服务器,为 AI 助手提供有关 Compresto 使用情况统计的实时数据。

Compresto 是什么?

Compresto 是一款文件压缩应用,可帮助用户减小文件大小。该 MCP 服务器允许 AI 助手访问 Compresto 的最新使用情况统计信息。

Related MCP server: MCP Toolkit

什么是 MCP?

模型上下文协议 (MCP) 是一种连接 AI 系统与外部工具和数据源的标准。该 MCP 服务器通过提供对 Compresto 使用情况统计信息的访问权限来扩展 AI 功能。

安装

git clone https://github.com/dqhieu/compresto-mcp cd compresto-mcp npm install npm run build

手动配置

将以下内容添加到您的 MCP 设置文件中

{ "mcpServers": { "compresto": { "command": "node", "args": [ "/ABSOLUTE/PATH/TO/PARENT/FOLDER/compresto-mcp/build/index.js" ] } } }

当与兼容的 AI 助手集成时,该 MCP 服务器可提供有关 Compresto 使用情况的实时数据。

可用工具

Compresto MCP 服务器提供以下工具:

获取总用户数

返回 Compresto 用户的总数。

示例响应: 12345

获取已处理文件总数

返回 Compresto 处理的文件总数。

响应示例: Processed 67890 files

减少总尺寸

返回 Compresto 减少的文件大小总量。

响应示例: Reduced 1234567890 bytes

发展

先决条件

  • Node.js(v16 或更高版本)

  • npm 或 yarn

项目结构

  • src/index.ts - 包含 MCP 服务器实现的主入口点

  • package.json - 项目依赖项和脚本

  • tsconfig.json - TypeScript 配置

执照

MIT 许可证

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/dqhieu/compresto-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server