Skip to main content
Glama

Kobold MCP 服务器

用于与 KoboldAI 交互的模型上下文协议 (MCP) 服务器实现。该服务器支持 KoboldAI 的文本生成功能与兼容 MCP 的应用程序集成。

特征

  • 使用 KoboldAI 生成文本

  • 使用持久内存完成聊天

  • OpenAI 兼容 API 端点

  • 稳定扩散积分

  • 基于官方 MCP SDK 构建

  • TypeScript 实现

Related MCP server: Outsource MCP

安装

npm install kobold-mcp-server

先决条件

  • Node.js(v16 或更高版本)

  • npm 或 yarn 包管理器

  • 运行 KoboldAI 实例

用法

import { KoboldMCPServer } from 'kobold-mcp-server'; // Initialize the server const server = new KoboldMCPServer(); // Start the server server.start();

配置

可以通过环境变量或配置对象来配置服务器:

const config = { apiUrl: 'http://localhost:5001' // KoboldAI API endpoint }; const server = new KoboldMCPServer(config);

支持的 API

  • 核心 KoboldAI API(文本生成、模型信息)

  • 通过对话记忆完成聊天

  • 文本补全(兼容 OpenAI)

  • 稳定扩散积分(txt2img,img2img)

  • 音频转录和文本转语音

  • Web 搜索功能

发展

  1. 克隆存储库:

git clone https://github.com/yourusername/kobold-mcp-server.git cd kobold-mcp-server
  1. 安装依赖项:

npm install
  1. 构建项目:

npm run build

依赖项

  • @modelcontextprotocol/sdk : ^1.0.1

  • node-fetch :^2.6.1

  • zod :^3.20.0

  • zod-to-json-schema :^3.23.5

贡献

欢迎贡献!请随时提交 Pull 请求。

执照

MIT 许可证 - 详情请参阅 LICENSE 文件。

支持

对于问题和功能请求,请使用 GitHub 问题跟踪器。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/PhialsBasement/KoboldCPP-MCP-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server