Servidor MCP de búsqueda de IA de Higress
Descripción general
Un servidor de Protocolo de Contexto de Modelo (MCP) que proporciona una herramienta de búsqueda de IA para mejorar las respuestas del modelo de IA con resultados de búsqueda en tiempo real de varios motores de búsqueda a través de la función de búsqueda de IA de Higress .
Related MCP server: WebSearch-MCP
Manifestación
Cline
https://github.com/user-attachments/assets/60a06d99-a46c-40fc-b156-793e395542bb
Escritorio de Claude
https://github.com/user-attachments/assets/5c9e639f-c21c-4738-ad71-1a88cc0bcb46
Características
Búsqueda en Internet : Google, Bing, Quark: para información web general
Búsqueda académica : Arxiv - para artículos científicos e investigaciones
Búsqueda de conocimiento interno
Prerrequisitos
uv para instalación de paquetes.
Configurar Higress con el complemento ai-search y el complemento ai-proxy .
Configuración
El servidor se puede configurar mediante variables de entorno:
HIGRESS_URL(opcional): URL para el servicio Higress (predeterminado:http://localhost:8080/v1/chat/completions).MODEL(requerido): Modelo LLM a utilizar para generar respuestas.INTERNAL_KNOWLEDGE_BASES(opcional): Descripción de las bases de conocimiento internas.
Opción 1: Uso de uvx
El uso de uvx instalará automáticamente el paquete desde PyPI, sin necesidad de clonar el repositorio localmente.
Opción 2: Uso de uv con desarrollo local
El uso de uv requiere clonar el repositorio localmente y especificar la ruta al código fuente.
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.