-
securityF
license-
qualityA Model Context Protocol (MCP) server implementation that provides the LLM an interface for visualizing data using Vega-Lite syntax.
Last updated -
65
Python
模型上下文协议 (MCP) 服务器实现为 LLM 提供了使用 Vega-Lite 语法可视化数据的界面。
该服务器提供两个核心工具:
save_data
name
(字符串):要保存的数据表的名称data
(数组):表示数据表的对象数组visualize_data
data_name
(字符串):要可视化的数据表的名称vegalite_specification
(字符串):表示 Vega-Lite 规范的 JSON 字符串--output_type
设置为text
,则返回一条成功消息,其中包含一个额外的artifact
key,其中包含完整的 Vega-Lite 规范和数据。如果将--output_type
设置为png
,则返回使用 MPC ImageContent
容器的 base64 编码的可视化 PNG 图像。This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
MCP 服务器提供工具来保存数据表并从中生成可视化效果,从而允许 AI 模型使用 Vega-Lite 语法创建数据可视化效果。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/markomitranic/mcp-vegalite-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server