tiempo-mcp
Un sistema de inteligencia artificial agente mínimo que responde preguntas generales y relacionadas con el tiempo mediante un proceso de LLM aumentado con herramientas.
Características
API de Flask : proporciona la marca de tiempo actual.
Servidor de agente MCP : agente de razonamiento que detecta la intención del usuario, llama a herramientas (como la API de tiempo), genera indicaciones e interactúa con un LLM a través de OpenRouter (API compatible con OpenAI).
Interfaz de usuario optimizada : interfaz de chat sencilla para hablar con el agente de IA.
Related MCP server: MCP-RAG
Configuración
1. Clonar e instalar dependencias
pip install -r requirements.txt2. Variable de entorno
Configure su clave API de OpenRouter (obtenga una en https://openrouter.ai ):
export OPENROUTER_API_KEY=sk-...your-key...3. Ejecutar los servidores
Abra tres terminales (o utilice procesos en segundo plano):
Terminal 1: API de tiempo de Flask
python flask_api.pyTerminal 2: Servidor del agente MCP
python mcp_server.pyTerminal 3: Interfaz de usuario optimizada
streamlit run streamlit_ui.pyLa interfaz de usuario de Streamlit se abrirá en su navegador (predeterminado: http://localhost:8501 )
Uso
Pregúntele cualquier pregunta al agente en la interfaz de usuario de Streamlit.
Si preguntas la hora (por ejemplo, "¿Qué hora es?"), el agente llamará a la API de Flask, obtendrá la hora actual y elaborará una respuesta hermosa y natural utilizando el LLM.
Para otras preguntas, el agente responderá utilizando únicamente el LLM.
Arquitectura
[Streamlit UI] → [MCP Agent Server] → [Tools (e.g., Time API)]
↓
[LLM via OpenRouter]El agente MCP detecta la intención, llama a las herramientas según sea necesario, diseña indicaciones y las envía al LLM.
Fácilmente extensible para agregar más herramientas (solo agréguelo a la clase MCPAgent).
Personalización
Agregar más herramientas : implementar nuevos métodos en
MCPAgenty actualizarself.tools.Mejorar la detección de intenciones : ampliar
detect_intent()enMCPAgent.Cambiar el modelo LLM : actualice el campo
modelencall_llm().
Requisitos
Python 3.7+
Consulte
requirements.txtpara conocer las dependencias.
Créditos
Desarrollado con Flask, Streamlit, OpenRouter y Python.
Inspirado en patrones de diseño LLM de agencia.
This server cannot be installed
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.