mcp-tools-server
mcp-tools-server
Ein MCP-Server (Model Context Protocol) für allgemeine Zwecke mit Hilfsprogrammen, die von jedem kompatiblen Agenten genutzt werden können.
Demonstriert die serverseitige Implementierung von MCP – die meisten Projekte konsumieren nur Server. Dieses Projekt implementiert einen.
Verfügbare Werkzeuge
Werkzeug | Funktion |
| Datum, UTC-Zeit, Unix-Zeitstempel, Wochentag, ISO-Woche |
| Wertet mathematische Ausdrücke sicher aus (vollständige Mathematik) |
| Wörter, Sätze, Zeichen und geschätzte Token eines Textes |
| Extrahiert Werte aus JSON über einen Dot-Path ( |
| Suche in der Wissensdatenbank — Stub bereit zur Verbindung mit Qdrant |
| HTTP-GET mit Domain-Allowlist |
Schnellstart
git clone https://github.com/RenanMiqueloti/mcp-tools-server.git
cd mcp-tools-server
python -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt
python server.pyVerbindung mit Claude Desktop
Fügen Sie dies in ~/Library/Application Support/Claude/claude_desktop_config.json (macOS) oder %APPDATA%\Claude\claude_desktop_config.json (Windows) hinzu:
{
"mcpServers": {
"mcp-tools": {
"command": "python",
"args": ["/caminho/absoluto/para/server.py"]
}
}
}Starten Sie Claude Desktop neu. Die Werkzeuge stehen automatisch zur Verfügung.
Verbindung mit einem LangGraph-Agenten
from langchain_mcp_adapters.client import MultiServerMCPClient
from langgraph.prebuilt import create_react_agent
from langchain_anthropic import ChatAnthropic
client = MultiServerMCPClient({
"mcp-tools": {
"command": "python",
"args": ["server.py"],
"transport": "stdio",
}
})
tools = await client.get_tools()
agent = create_react_agent(ChatAnthropic(model="claude-opus-4-6"), tools)
result = await agent.ainvoke({"messages": [("human", "What day of the week is it?")]})Hinzufügen der echten search_knowledge (Qdrant)
Ersetzen Sie in server.py den Stub im Handler search_knowledge:
from qdrant_client import QdrantClient
from langchain_openai import OpenAIEmbeddings
client_q = QdrantClient(url=os.getenv("QDRANT_URL"))
embeddings = OpenAIEmbeddings()
query_vec = embeddings.embed_query(query)
hits = client_q.search("knowledge", query_vector=query_vec, limit=top_k)
results = [{"rank": i+1, "text": h.payload["text"], "score": h.score} for i, h in enumerate(hits)]Struktur
mcp-tools-server/
├── server.py # Servidor MCP completo (stdio transport)
├── requirements.txt
├── .env.example
└── LICENSEThis server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/RenanMiqueloti/mcp-tools-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server