Higress AI-Search MCP Server

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Provides academic search capabilities for scientific papers and research

  • Allows searching for general web information through Google search engine

Servidor MCP de búsqueda de IA de Higress

Descripción general

Un servidor de Protocolo de Contexto de Modelo (MCP) que proporciona una herramienta de búsqueda de IA para mejorar las respuestas del modelo de IA con resultados de búsqueda en tiempo real de varios motores de búsqueda a través de la función de búsqueda de IA de Higress .

Manifestación

Cline

https://github.com/user-attachments/assets/60a06d99-a46c-40fc-b156-793e395542bb

Escritorio de Claude

https://github.com/user-attachments/assets/5c9e639f-c21c-4738-ad71-1a88cc0bcb46

Características

  • Búsqueda en Internet : Google, Bing, Quark: para información web general
  • Búsqueda académica : Arxiv - para artículos científicos e investigaciones
  • Búsqueda de conocimiento interno

Prerrequisitos

  • uv para instalación de paquetes.
  • Configurar Higress con el complemento ai-search y el complemento ai-proxy .

Configuración

El servidor se puede configurar mediante variables de entorno:

  • HIGRESS_URL (opcional): URL para el servicio Higress (predeterminado: http://localhost:8080/v1/chat/completions ).
  • MODEL (requerido): Modelo LLM a utilizar para generar respuestas.
  • INTERNAL_KNOWLEDGE_BASES (opcional): Descripción de las bases de conocimiento internas.

Opción 1: Uso de uvx

El uso de uvx instalará automáticamente el paquete desde PyPI, sin necesidad de clonar el repositorio localmente.

{ "mcpServers": { "higress-ai-search-mcp-server": { "command": "uvx", "args": [ "higress-ai-search-mcp-server" ], "env": { "HIGRESS_URL": "http://localhost:8080/v1/chat/completions", "MODEL": "qwen-turbo", "INTERNAL_KNOWLEDGE_BASES": "Employee handbook, company policies, internal process documents" } } } }

Opción 2: Uso de uv con desarrollo local

El uso de uv requiere clonar el repositorio localmente y especificar la ruta al código fuente.

{ "mcpServers": { "higress-ai-search-mcp-server": { "command": "uv", "args": [ "--directory", "path/to/src/higress-ai-search-mcp-server", "run", "higress-ai-search-mcp-server" ], "env": { "HIGRESS_URL": "http://localhost:8080/v1/chat/completions", "MODEL": "qwen-turbo", "INTERNAL_KNOWLEDGE_BASES": "Employee handbook, company policies, internal process documents" } } } }

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Un servidor de protocolo de contexto de modelo que permite a los modelos de IA realizar búsquedas de Internet y de conocimiento en tiempo real a través de Higress, mejorando las respuestas del modelo con información actualizada de Google, Bing, Arxiv y bases de conocimiento internas.

  1. Overview
    1. Demo
      1. Cline
      2. Claude Desktop
    2. Features
      1. Prerequisites
        1. Configuration
          1. Option 1: Using uvx
          2. Option 2: Using uv with local development
        2. License
          ID: gk0xde4wbp