Skip to main content
Glama

Better Writer MCP

by oil-oil
README.md8.53 kB
# Better Writer MCP — 帮助你生成更好文章内容的 MCP 一个专注于生成自然、流畅中文内容的 MCP 工具。它能写出"像人写的"文字,支持联网搜索最新资料,并可直接保存到指定文件。默认使用我认为内容生成效果最好,最自然的 `Qwen3-Next-80B-A3B` 模型。 ## 核心设计思路 Better Writer MCP 的提示词设计围绕三个核心理念: 1. **可读性优先** - 通过明确的"禁用词表"和"推荐表达",避免"若""则""且"等公文腔,让内容更贴近真实对话 2. **严格的规范约束** - 内置详细的写作规范(段落结构、标题层级、标点使用等),确保输出质量稳定 3. **上下文感知** - 支持传入背景信息和自定义规则,让生成内容更符合具体场景需求 --- ## 快速开始 ### 第一步:获取 API Key Better Writer MCP 使用 OpenRouter 作为 LLM 服务提供商。你需要: 1. 访问 [OpenRouter 官网](https://openrouter.ai) 注册账号 2. 在账户设置中创建 API Key 3. 配置到环境变量或 MCP 配置文件中 ### 第二步:配置 MCP Server 在任何支持配置 MCP 的客户端中添加如下配置: ```json { "better-writer": { "command": "npx", "args": ["-y", "better-writer-mcp"], "env": { "OPENROUTER_KEY": "your-api-key-here" } } } ``` --- ## 高级配置 ### 环境变量说明 | 变量名 | 说明 | 默认值 | 是否必填 | |--------|------|--------|---------| | `OPENROUTER_KEY` | OpenRouter API 密钥 | - | ✅ 是 | | `OPENROUTER_MODEL` | 指定使用的 LLM 模型 | `qwen/qwen3-next-80b-a3b-instruct` | ❌ 否 | | `BW_DEFAULT_TOOL` | 是否作为默认写作工具 | `false` | ❌ 否 | | `BETTER_WRITER_CUSTOM_RULES` | 自定义写作规则 | - | ❌ 否 | #### 关于 `BW_DEFAULT_TOOL` 环境变量 这个环境变量控制 Better Writer 的调用方式: **设置为 `true`**(推荐): - AI 会在任何写作需求时自动调用 Better Writer - 用户只需说"写一篇文章",无需提及工具名称 - 适合作为主要写作工具使用 **设置为 `false`**(默认): - 只有用户明确说"用 Better Writer"或"用 bw"时才会调用 - 适合与其他写作工具共存的场景 配置示例: ```json { "mcpServers": { "bw": { "command": "npx", "args": ["-y", "better-writer-mcp"], "env": { "OPENROUTER_KEY": "your-api-key-here", "BW_DEFAULT_TOOL": "true" } } } } ``` ### 自定义写作规则 如果你有特定的写作规范要求,可以通过 `BETTER_WRITER_CUSTOM_RULES` 环境变量传入。例如: ```json { "mcpServers": { "better-writer": { "command": "npx", "args": ["-y", "better-writer-mcp"], "env": { "OPENROUTER_KEY": "your-api-key-here", "BETTER_WRITER_CUSTOM_RULES": "- 所有代码必须有中文注释\n- 技术术语首次出现时给出解释\n- 避免使用'简单''容易'等主观词" } } } } ``` 这些自定义规则会被合并到内置的写作规范中,让生成的内容更符合你的需求。 ### 更换模型 如果你想使用其他模型(比如 GPT-5、Gemini 等),可以设置 `OPENROUTER_MODEL`: ```json { "env": { "OPENROUTER_KEY": "your-api-key-here", "OPENROUTER_MODEL": "google/gemini-2.5-pro" } } ``` 支持的模型列表请参考 [OpenRouter Models](https://openrouter.ai/models)。 --- ## 使用示例 配置完成后,你可以在 AI 对话框中这么说: ### 如果设置了 `BW_DEFAULT_TOOL=true`(推荐) 直接说明写作需求即可: ``` 写一篇智能台灯的产品介绍,300字左右 ``` ``` 写一份 MCP 协议的介绍,需要联网查最新资料,保存到 docs/mcp-intro.md ``` ``` 帮我写个周报,内容是本周完成了三个功能模块 ``` ### 如果使用默认设置(`BW_DEFAULT_TOOL=false`) 需要明确提及工具名称: ``` 用 Better Writer 写一篇智能台灯的产品介绍,300字左右 ``` ``` 用 bw 写一份 MCP 协议的介绍,需要联网查最新资料 ``` AI 助手会自动调用 Better Writer,传递合适的参数,生成自然流畅的中文内容。 --- ## 效果对比:为什么需要 Better Writer? 同样是写"MCP 协议介绍",我们来看看直接让 AI 生成和 Better Writer 生成的内容有什么区别。 ### Claude Sonnet 4.5 生成的版本 Model Context Protocol(MCP)作为一项创新性的技术标准,正在深刻地改变着大语言模型与外部系统的交互方式。从技术架构的角度来看,MCP 提供了一套标准化的协议规范,使得不同的 AI 模型能够以统一的方式访问各类数据源和工具服务。 MCP 的核心价值主要体现在以下几个维度。首先,它有效解决了传统 AI 应用开发中的集成难题,通过标准化的接口设计,显著降低了开发者的对接成本。其次,MCP 具备良好的可扩展性和兼容性,能够支持多种类型的资源访问,包括文件系统、数据库、API 服务等。此外,该协议还充分考虑了安全性因素,通过权限控制机制确保数据访问的安全边界。 在实际应用场景中,MCP 展现出了强大的潜力。对于企业用户而言,它能够实现 AI 模型与内部系统的无缝对接,提升工作流程的自动化水平。对于开发者来说,MCP 提供了清晰的开发范式,只需实现符合规范的服务端,即可让 AI 模型快速接入现有的业务系统。目前,包括 Claude Desktop、Cursor 等主流 AI 工具已经集成了 MCP 支持。 从技术演进的视角来看,MCP 代表了 AI 应用开发的一个重要方向。它不仅简化了技术实现的复杂度,更为构建更加开放、互联的 AI 生态系统奠定了基础。随着协议的持续完善和生态的不断丰富,MCP 有望成为 AI 领域的重要基础设施,推动人工智能技术向更加实用化、产品化的方向发展。 ### Better Writer 生成的版本 MCP 是 “Model Control Protocol” 的缩写,是一种用于协调大语言模型与其他工具或系统交互的轻量级协议。它不是某种特定的软件,也不是一个封闭的平台,而是一组清晰的规则和接口设计,让不同来源的模型能够以统一的方式接收指令、调用外部能力、反馈结果。 在实际应用中,我们常常需要让模型不只是“回答问题”,而是“做事”——比如查天气、下单、算账、甚至控制智能家居。但不同模型的接口各不相同,外部工具的调用方式也五花八门。MCP 的作用,就是把这些差异封装起来,提供一个标准的沟通语言。 举个例子:如果我们想让一个模型查询数据库中的订单状态,没有 MCP 时,每个系统都得写一套专属的代码来连接模型和数据库。有了 MCP,我们只需要定义一个标准的请求格式,比如: ```json { "action": "query_database", "params": {"table": "orders", "id": "12345"} } ``` 模型看到这个结构,就知道该去调用哪个工具,传什么参数。工具收到后,执行操作,再按标准格式返回结果,比如: ```json { "status": "success", "data": {"order_status": "shipped", "estimated_delivery": "2024-06-15"} } ``` 这个过程完全不依赖底层模型的类型——无论是本地部署的 Llama,还是云端的 GPT,只要支持 MCP 格式,就能接入。这让系统更容易扩展,也更容易维护。 MCP 的设计原则很朴素:简单、可读、无冗余。它不试图替代 HTTP、JSON 或 REST,而是专注于在“模型”和“工具”之间那最关键的一步上做好桥梁。它不追求全能,只求可靠。 目前,MCP 在一些开源项目和企业内部系统中已有落地。比如,一个客服助手系统通过 MCP 接入了 CRM、物流系统和支付网关,所有交互都遵循统一格式,运维人员不必为每个新功能重写接口逻辑。开发效率提升,出错率下降。 它不炫目,也没有大公司背书,但它解决了真实的问题。我们不需要每个模型都自带一万种插件,也不需要为每个工具写一遍适配器。MCP 提供了一种平衡:既保留了模型的灵活性,又让系统保持结构化。 如果未来越来越多的工具和模型能接受这种简单而稳定的标准,智能化系统的搭建就会变得更轻、更快、更稳。这就是 MCP 的价值:不革命,但很实用。

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/oil-oil/better-writer-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server