remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Utilizes FlareSolverr to bypass Cloudflare protection when crawling websites, ensuring more reliable search results from protected sites
Integrates with Docker to run the WebSearch Crawler API service, which handles the actual web searches and retrieves results from the internet
Performs web searches through Google's search engine, with the ability to customize search parameters like language, region, and result types
WebSearch-MCP
一个模型上下文协议 (MCP) 服务器实现,通过标准输入输出 (stdio) 传输提供网页搜索功能。该服务器集成了 WebSearch Crawler API 来检索搜索结果。
目录
关于
WebSearch-MCP 是一个模型上下文协议 (MCP) 服务器,为支持 MCP 的 AI 助手提供网页搜索功能。它允许像 Claude 这样的 AI 模型实时搜索网页,检索任何主题的最新信息。
该服务器集成了处理实际网络搜索的爬虫 API 服务,并使用标准化模型上下文协议与 AI 助手进行通信。
安装
通过 Smithery 安装
要通过Smithery自动安装 Claude Desktop 的 WebSearch:
手动安装
或者无需安装即可使用:
配置
可以使用环境变量来配置 WebSearch MCP 服务器:
API_URL
:WebSearch Crawler API 的 URL(默认值:http://localhost:3001
)MAX_SEARCH_RESULT
:请求中未指定时返回的最大搜索结果数(默认值:5
)
例子:
设置和集成
设置 WebSearch-MCP 涉及两个主要部分:配置执行实际网络搜索的爬虫服务,以及将 MCP 服务器与您的 AI 客户端应用程序集成。
设置爬虫服务
WebSearch MCP 服务器需要爬虫服务来执行实际的 Web 搜索。您可以使用 Docker Compose 轻松设置爬虫服务。
先决条件
启动爬虫服务
- 创建一个名为
docker-compose.yml
的文件,其内容如下:
针对 Mac Apple Silicon 的解决方法
- 启动服务:
- 验证服务是否正在运行:
- 测试爬虫 API 健康端点:
预期响应:
爬虫 API 将在http://localhost:3001
上可用。
测试爬虫 API
您可以直接使用 curl 测试爬虫 API:
自定义配置
可以通过修改docker-compose.yml
文件中的环境变量来自定义爬虫服务:
PORT
:爬虫 API 监听的端口(默认值:3001)LOG_LEVEL
:日志级别(选项:debug、info、warn、error)FLARESOLVERR_URL
:FlareSolverr 服务的 URL(用于绕过 Cloudflare 保护)
与 MCP 客户端集成
快速参考:MCP 配置
以下是跨不同客户端的 MCP 配置的快速参考:
由于问题,针对 Windows 的解决方法
用法
该软件包使用 stdio 传输实现了一个 MCP 服务器,该服务器公开了一个具有以下参数的web_search
工具:
参数
query
(必需):要查找的搜索查询numResults
(可选):返回的结果数(默认值:5)language
(可选):搜索结果的语言代码(例如“en”)region
(可选):搜索结果的区域代码(例如“us”)excludeDomains
(可选):从结果中排除的域includeDomains
(可选):仅在结果中包含这些域excludeTerms
(可选):从结果中排除的术语resultType
(可选):返回的结果类型(“全部”、“新闻”或“博客”)
搜索响应示例
以下是搜索响应的示例:
本地测试
要在本地测试 WebSearch MCP 服务器,您可以使用附带的测试客户端:
这将启动 MCP 服务器和一个简单的命令行界面,允许您输入搜索查询并查看结果。
您还可以为测试客户端配置 API_URL:
作为图书馆
您可以通过编程方式使用此包:
故障排除
爬虫服务问题
- API 无法访问:确保爬虫服务正在运行,并且可以通过配置的 API_URL 访问。
- 搜索结果不可用:检查爬虫服务的日志,查看是否有任何错误:Copy
- FlareSolverr 问题:某些网站使用 Cloudflare 防护。如果您看到与此相关的错误,请检查 FlareSolverr 是否正常工作:Copy
MCP 服务器问题
- 导入错误:确保您拥有最新版本的 MCP SDK:Copy
- 连接问题:确保为您的客户端正确配置了 stdio 传输。
发展
从事此项目:
- 克隆存储库
- 安装依赖项:
npm install
- 构建项目:
npm run build
- 以开发模式运行:
npm run dev
服务器需要包含 swagger.json 文件中定义的 WebSearch Crawler API。请确保该 API 在配置的 API_URL 上运行。
项目结构
.gitignore
:指定 Git 应该忽略的文件(node_modules、dist、logs 等).npmignore
:指定发布到 npm 时不应包含的文件package.json
:项目元数据和依赖项src/
:源 TypeScript 文件dist/
:已编译的 JavaScript 文件(构建时生成)
发布到 npm
要将此包发布到 npm:
- 确保您拥有 npm 帐户并已登录(
npm login
) - 更新 package.json 中的版本(
npm version patch|minor|major
) - 运行
npm publish
.npmignore
文件确保发布的包中只包含必要的文件:
dist/
中的编译代码- README.md 和 LICENSE 文件
- 包.json
贡献
欢迎贡献代码!欢迎提交 Pull 请求。
执照
国际学习中心
You must be authenticated.
Tools
模型上下文协议服务器使 AI 助手能够执行实时网络搜索,并通过爬虫 API 从互联网检索最新信息。
Appeared in Searches
- A server for finding the cheapest flights for a specified date range
- Accessing a webcheck server to retrieve JSON data for website analysis
- A server for finding job opportunities on job boards
- Using a search engine to find evidence to answer a question
- Free web browsers or tools for browsing the internet