Skip to main content
Glama

ChatBI MCP Server

by Steven-Luo
README.md1.83 kB
# ChatBI MCP Server ## 准备环境 ### 配置LLM API Key ```bash cp .env.example .env ``` 编辑`.env`文件,填写LLM信息,要生成代码,建议填写相对比较强的模型,比如GLM 4.5、Qwen-235B-A22B、Kimi K2等,至少Qwen3-32B,规模再小的生成代码质量会比较差,分析效果差。 ### 安装依赖 ```bash uv venv .venv --python=3.11 source .venv/bin/activate uv pip install -r requirements.txt ``` ## 运行服务 ```bash cd src python pandas_mcp_server.py ``` ## 使用 ### 配置ChatBI MCP Server 使用任意支持MCP Server的客户端,比如Cherry Studio,配置如下: ![](./assets/MCP%20Server配置1.png) 其中验证信息,在`config.yaml`中,可以自行修改。默认值为`eyJzdWIiOiAidXNlcjEyMyIsICJpYXQiOiAxNzUxODA5ODIwLCAiZXhwIjogMTc1MTgxMzQyMH0`。 > 注意:超时时间设置长一点,因为涉及LLM生成代码、如果出错还需要改错 添加完成后,点击“保存”,然后点击又上方的开启选项,切换到“工具”标签页: 如果能正常列出工具,说明配置正确。 ![](./assets/MCP%20Server配置2.png) ### 使用ChatBI MCP Server #### 常规统计 使用时,记得开启这个MCP Server: ![使用1.png](assets/%E4%BD%BF%E7%94%A81-1.png) ![使用1-2.png](assets/%E4%BD%BF%E7%94%A81-2.png) #### 可视化 结合[mcp-server-chart](https://github.com/antvis/mcp-server-chart)使用 ![使用2.png](assets/%E4%BD%BF%E7%94%A82.png) ### 综合运用 通过指令,自动化数据分析: 生成数据分析计划: ![综合1.png](assets/%E7%BB%BC%E5%90%881.png) 开始分析: ![综合2.png](assets/%E7%BB%BC%E5%90%882.png) 结果报告: ![综合3.png](assets/%E7%BB%BC%E5%90%883.png) ![综合4.png](assets/%E7%BB%BC%E5%90%884.png) 生成的看板: ![Dashboard.png](assets/Dashboard.png)

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Steven-Luo/chatbi-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server