Integrations
Este proyecto conecta un LLM local (p. ej., Qwen) con herramientas como una calculadora o una base de conocimientos mediante el protocolo MCP . El asistente detecta y llama automáticamente a estas herramientas para responder a las consultas de los usuarios.
📦 Características
- 🔧 Ejecución de herramientas a través del servidor MCP
- 🧠 Integración local de LLM a través de HTTP o OpenAI SDK
- 📚 Soporte de base de conocimientos (
data.json
) - ⚡ Admite transportes
stdio
ysse
🗂 Archivos del proyecto
Archivo | Descripción |
---|---|
server.py | Registra herramientas e inicia el servidor MCP |
client-http.py | Utiliza aiohttp para comunicarse con LLM local |
clientopenai.py | Utiliza SDK compatible con OpenAI para LLM + lógica de llamada de herramientas |
client-stdio.py | Cliente MCP que utiliza stdio |
client-see.py | Cliente MCP que utiliza SSE |
data.json | Base de conocimientos de preguntas y respuestas |
📥 Instalación
Requisitos
Python 3.8+
Instalar dependencias:
requirements.txt
🚀 Primeros pasos
1. Ejecute el servidor MCP
Esto inicia su servidor de herramientas con funciones como add
, multiply
y get_knowledge_base
.
2. Iniciar un cliente
Opción A: Cliente HTTP (LLM local a través de API sin procesar)
Opción B: Cliente SDK de OpenAI
Opción C: transporte stdio
Opción D: Transporte SSE
Asegúrese de que server.py
establezca:
Luego ejecuta:
💬 Ejemplos de indicaciones
Llamada a la herramienta matemática
Respuesta:
Pregunta de la base de conocimientos
La respuesta incluirá la respuesta relevante de data.json
.
📁 Ejemplo: data.json
🔧 Configuración
Dentro de client-http.py
o clientopenai.py
, actualice lo siguiente:
Asegúrese de que su LLM esté prestando servicio a puntos finales de API compatibles con OpenAI.
🧹 Limpieza
Los clientes gestionan las llamadas y respuestas de las herramientas automáticamente. Puede detener el servidor o el cliente con Ctrl+C
.
🪪 Licencia
Licencia MIT. Véase el archivo LICENSE .
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Conecta LLM locales con herramientas externas (calculadora, base de conocimiento) a través del protocolo MCP, lo que permite la detección y ejecución automática de herramientas para mejorar las respuestas a las consultas.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -14PythonApache 2.0
- -securityAlicense-qualityAn MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.Last updated -177PythonMIT License
- -security-license-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -PythonMIT License