kothar
kothar
上下文感知的 MCP 服务器顾问。告诉您针对特定项目需要安装什么,以及原因。
问题所在
Glama 拥有超过 19,000 个 MCP 服务器。您有一个项目。但没有人能弥合两者之间的差距。
直接询问 LLM 会导致它们幻觉出不存在的服务器,并根据过时的训练数据进行推荐。目录只能提供搜索,不能提供建议。
kothar 填补了上下文选择的空白:不是“这里有 19,000 个选项”,而是“针对您当前的项目,此时此刻,您需要什么以及为什么需要”。
两个无人服务的时刻
项目启动: “我正在使用 DuckDB 和 FastAPI 构建一个 Python 数据管道” → 我现在应该安装什么
项目中期: “我刚刚添加了一个身份验证层 / 我需要处理 PDF 摄取” → 既然我已经到了这一步,现在应该添加什么
第二个时刻更有价值。在项目启动时,人们可以搜索 Google。而在项目中期,他们正处于工作流中。
三个工具
recommend_for_project(description)
→ top MCP servers for your stack with rationale
recommend_next(current_stack, new_context)
→ what to add as your project evolves
explain_why(server_name, project_description)
→ why a specific server fits your project安装
先决条件: uv
git clone https://github.com/yahiaklk/kothar
cd kothar
uv sync构建索引(首次运行,约 30 秒):
uv run python -m kothar.indexer添加到 Claude Code
claude mcp add --scope user kothar -- uv run --directory /path/to/kothar python -m kothar.server添加到 Claude Desktop
添加到您的 claude_desktop_config.json:
{
"mcpServers": {
"kothar": {
"command": "uv",
"args": ["run", "--directory", "/path/to/kothar", "python", "-m", "kothar.server"]
}
}
}使用方法
连接后,询问您的 AI 助手:
recommend_for_project("Python FastAPI backend with PostgreSQL and JWT auth")
recommend_next("github,filesystem", "adding Stripe payments and PDF invoices")
explain_why("postgres", "multi-tenant SaaS with row-level security")工作原理
解析 awesome-mcp-servers(2000 多个精选服务器)
使用
all-MiniLM-L6-v2对描述进行嵌入(本地,无 API 成本)存储在 DuckDB 中,使用余弦相似度进行查询
基于模板的逻辑说明 — 基于注册表,而非幻觉
重建索引
uv run python -m kothar.indexer --forceDocker
多阶段镜像,内置嵌入模型 + DuckDB 索引 — 无运行时网络依赖。
docker build -t kothar:0.3.0 .
docker run --rm -i kothar:0.3.0 # stdio transport, for local MCP clients接入 Claude Desktop:
{
"mcpServers": {
"kothar": {
"command": "docker",
"args": ["run", "--rm", "-i", "kothar:0.3.0"]
}
}
}非 root 用户 (uid=10001),固定 Python 3.12,依赖项从 uv.lock 解析,模型在运行时缓存于 /app/.hf_cache,并设置 HF_HUB_OFFLINE=1。
技术栈
Python · FastMCP · DuckDB · sentence-transformers · uv
许可证
Maintenance
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/yahiaklk/kothar'
If you have feedback or need assistance with the MCP directory API, please join our Discord server