MCP 脉络藻
智能 MCP 服务器,提供使用 OpenAI API 进行代码分析、代码收集和文档生成的工具。
🚀 安装指南
如果您还没有安装任何东西,也不用担心!只需按照以下步骤操作,或者请您的助手协助您安装。
步骤1:安装Node.js
macOS
如果尚未安装 Homebrew,请安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"安装 Node.js 18:
brew install node@18 echo 'export PATH="/opt/homebrew/opt/node@18/bin:$PATH"' >> ~/.zshrc source ~/.zshrc
视窗
从nodejs.org下载 Node.js 18 LTS
运行安装程序
打开新终端以应用更改
Linux(Ubuntu/Debian)
第 2 步:安装 uv 和 uvx
所有操作系统
安装 uv:
curl -LsSf https://astral.sh/uv/install.sh | sh安装 uvx:
uv pip install uvx
步骤 3:验证安装
运行以下命令来验证所有内容是否已安装:
步骤 4:配置 MCP 服务器
您的助手将帮助您:
找到您的 Cline 设置文件:
VSCode:
~/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.jsonClaude 桌面:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows VSCode:
%APPDATA%/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.jsonWindows 克劳德:
%APPDATA%/Claude/claude_desktop_config.json
添加此配置:
{ "mcpServers": { "aindreyway-mcp-neurolora": { "command": "npx", "args": ["-y", "@aindreyway/mcp-neurolora@latest"], "env": { "NODE_OPTIONS": "--max-old-space-size=256", "OPENAI_API_KEY": "your_api_key_here" } } } }
步骤5:安装基础服务器
只需询问您的助手:“请为我的环境安装基础 MCP 服务器”
您的助理将:
找到您的设置文件
运行 install_base_servers 工具
自动配置所有必要的服务器
安装完成后:
完全关闭 VSCode(macOS 上为 Cmd+Q,Windows 上为 Alt+F4)
重新打开 VSCode
新的服务器将可供使用
**重要提示:**安装基础服务器后,需要完全重启 VSCode,以便正确初始化它们。
**注意:**此服务器使用
npx直接执行 npm 包,这对于 Node.js/TypeScript MCP 服务器来说是最佳的,可与 npm 生态系统和 TypeScript 工具无缝集成。
基础 MCP 服务器
以下基础服务器将自动安装和配置:
fetch:用于访问 Web 资源的基本 HTTP 请求功能
puppeteer:用于 Web 交互和测试的浏览器自动化功能
顺序思维:用于复杂任务的高级问题解决工具
github:GitHub 集成功能,用于存储库管理
git:Git 操作支持版本控制
shell:基本shell命令执行,常用命令:
ls:列出目录内容
cat:显示文件内容
pwd:打印工作目录
grep:搜索文本模式
wc:统计单词、行、字符
touch:创建空文件
查找:搜索文件
🎯 你的助手能做什么
请你的助手:
“分析我的代码并提出改进建议”
“为我的环境安装基础 MCP 服务器”
“从我的项目目录中收集代码”
“为我的代码库创建文档”
“使用我的所有代码生成一个 markdown 文件”
🛠 可用工具
分析代码
使用 OpenAI API 分析代码并生成包含改进建议的详细反馈。
参数:
codePath(必需):要分析的代码文件或目录的路径
使用示例:
该工具将:
使用 OpenAI API 分析您的代码
通过以下方式生成详细反馈:
问题和建议
违反最佳实践
影响分析
修复步骤
在您的项目中创建两个输出文件:
LAST_RESPONSE_OPENAI.txt - 人类可读的分析
LAST_RESPONSE_OPENAI_GITHUB_FORMAT.json - GitHub 问题的结构化数据
注意:环境配置中需要 OpenAI API 密钥
收集代码
将目录中的所有代码收集到具有语法高亮和导航的单个 markdown 文件中。
参数:
directory(必需):收集代码的目录路径outputPath(可选):保存输出 markdown 文件的路径ignorePatterns(可选):要忽略的模式数组(类似于.gitignore)
使用示例:
安装基础服务器
将基本 MCP 服务器安装到您的配置文件。
参数:
configPath(必需):MCP 设置配置文件的路径
使用示例:
🔧 功能
服务器提供:
代码分析:
OpenAI API 集成
结构化反馈
最佳实践建议
GitHub 问题生成
代码集合:
目录遍历
语法高亮
导航生成
基于模式的过滤
基础服务器管理:
自动安装
配置处理
版本管理
📄 许可证
MIT 许可证 - 请随意在您的项目中使用它!
👤 作者
艾恩德雷韦
GitHub: @aindreyway
⭐️ 支持
如果这个项目对您有帮助,请给⭐️!
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
提供从目录收集和记录代码的工具。
Related MCP Servers
- AsecurityAlicenseAqualityAutomates the creation of standardized documentation by extracting information from source files and applying templates, with integration capabilities for GitHub, Google Drive, and Perplexity AI.Last updated -33MIT License
- AsecurityAlicenseAqualityProvides code context and analysis for AI assistants by extracting directory structures and code symbols using WebAssembly Tree-sitter parsers with zero native dependencies.Last updated -14318MIT License
- AsecurityAlicenseAqualityProvides tools for analyzing project structures, searching through codebases, managing dependencies, and performing file operations with advanced filtering capabilities.Last updated -6121MIT License
- AsecurityAlicenseAqualityProvides up-to-date documentation for 9000+ libraries directly in your AI code editor, enabling accurate code suggestions and eliminating outdated information.Last updated -1329158MIT License