Este proyecto conecta un LLM local (p. ej., Qwen) con herramientas como una calculadora o una base de conocimientos mediante el protocolo MCP . El asistente detecta y llama automáticamente a estas herramientas para responder a las consultas de los usuarios.
📦 Características
🔧 Ejecución de herramientas a través del servidor MCP
🧠 Integración local de LLM a través de HTTP o OpenAI SDK
📚 Soporte de base de conocimientos (
data.json
)⚡ Admite transportes
stdio
ysse
🗂 Archivos del proyecto
Archivo | Descripción |
| Registra herramientas e inicia el servidor MCP |
| Utiliza
para comunicarse con LLM local |
| Utiliza SDK compatible con OpenAI para LLM + lógica de llamada de herramientas |
| Cliente MCP que utiliza stdio |
| Cliente MCP que utiliza SSE |
| Base de conocimientos de preguntas y respuestas |
📥 Instalación
Requisitos
Python 3.8+
Instalar dependencias:
requirements.txt
🚀 Primeros pasos
1. Ejecute el servidor MCP
Esto inicia su servidor de herramientas con funciones como add
, multiply
y get_knowledge_base
.
2. Iniciar un cliente
Opción A: Cliente HTTP (LLM local a través de API sin procesar)
Opción B: Cliente SDK de OpenAI
Opción C: transporte stdio
Opción D: Transporte SSE
Asegúrese de que server.py
establezca:
Luego ejecuta:
💬 Ejemplos de indicaciones
Llamada a la herramienta matemática
Respuesta:
Pregunta de la base de conocimientos
La respuesta incluirá la respuesta relevante de data.json
.
📁 Ejemplo: data.json
🔧 Configuración
Dentro de client-http.py
o clientopenai.py
, actualice lo siguiente:
Asegúrese de que su LLM esté prestando servicio a puntos finales de API compatibles con OpenAI.
🧹 Limpieza
Los clientes gestionan las llamadas y respuestas de las herramientas automáticamente. Puede detener el servidor o el cliente con Ctrl+C
.
🪪 Licencia
Licencia MIT. Véase el archivo LICENSE .
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Conecta LLM locales con herramientas externas (calculadora, base de conocimiento) a través del protocolo MCP, lo que permite la detección y ejecución automática de herramientas para mejorar las respuestas a las consultas.
Related MCP Servers
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -10
- -securityFlicense-qualityA customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.Last updated -1
- -securityAlicense-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -MIT License
- -securityFlicense-qualityA tool that connects to local MySQL databases and enables large language models (LLMs) to execute SQL queries through the Model Context Protocol (MCP).Last updated -2881