Este proyecto conecta un LLM local (p. ej., Qwen) con herramientas como una calculadora o una base de conocimientos mediante el protocolo MCP . El asistente detecta y llama automáticamente a estas herramientas para responder a las consultas de los usuarios.
📦 Características
🔧 Ejecución de herramientas a través del servidor MCP
🧠 Integración local de LLM a través de HTTP o OpenAI SDK
📚 Soporte de base de conocimientos (
data.json)⚡ Admite transportes
stdioysse
Related MCP server: MCP Documentation Server
🗂 Archivos del proyecto
Archivo | Descripción |
| Registra herramientas e inicia el servidor MCP |
| Utiliza
para comunicarse con LLM local |
| Utiliza SDK compatible con OpenAI para LLM + lógica de llamada de herramientas |
| Cliente MCP que utiliza stdio |
| Cliente MCP que utiliza SSE |
| Base de conocimientos de preguntas y respuestas |
📥 Instalación
Requisitos
Python 3.8+
Instalar dependencias:
requirements.txt
🚀 Primeros pasos
1. Ejecute el servidor MCP
Esto inicia su servidor de herramientas con funciones como add , multiply y get_knowledge_base .
2. Iniciar un cliente
Opción A: Cliente HTTP (LLM local a través de API sin procesar)
Opción B: Cliente SDK de OpenAI
Opción C: transporte stdio
Opción D: Transporte SSE
Asegúrese de que server.py establezca:
Luego ejecuta:
💬 Ejemplos de indicaciones
Llamada a la herramienta matemática
Respuesta:
Pregunta de la base de conocimientos
La respuesta incluirá la respuesta relevante de data.json .
📁 Ejemplo: data.json
🔧 Configuración
Dentro de client-http.py o clientopenai.py , actualice lo siguiente:
Asegúrese de que su LLM esté prestando servicio a puntos finales de API compatibles con OpenAI.
🧹 Limpieza
Los clientes gestionan las llamadas y respuestas de las herramientas automáticamente. Puede detener el servidor o el cliente con Ctrl+C .
🪪 Licencia
Licencia MIT. Véase el archivo LICENSE .