Servidor MCP de Vectara
🔌 ¡ Compatible con Claude Desktop y cualquier otro cliente MCP!
Vectara MCP también es compatible con cualquier cliente MCP
El Protocolo de Contexto de Modelo (MCP) es un estándar abierto que permite que los sistemas de IA interactúen sin problemas con diversas fuentes de datos y herramientas, lo que facilita conexiones bidireccionales seguras.
Vectara-MCP proporciona a cualquier aplicación de agente acceso a un RAG rápido y confiable con alucinaciones reducidas, impulsado por la plataforma Trusted RAG de Vectara, a través del protocolo MCP.
Instalación
Puede instalar el paquete directamente desde PyPI:
Herramientas disponibles
- ask_vectara: Ejecuta una consulta RAG usando Vectara y devuelve resultados de búsqueda con una respuesta generada.Argumentos:
- consulta: str, La consulta del usuario a ejecutar - requerida.
- corpus_keys: list[str], Lista de claves de corpus de Vectara para la búsqueda (obligatorio). Solicite al usuario que proporcione una o más claves de corpus.
- api_key: str, la clave API de Vectara (obligatoria).
- n_sentences_before: int, número de oraciones antes de la respuesta para incluir en el contexto - opcional, el valor predeterminado es 2.
- n_sentences_after: int, número de oraciones después de la respuesta para incluir en el contexto (opcional, el valor predeterminado es 2).
- lexical_interpolation: float, la cantidad de interpolación léxica a utilizar (opcional, el valor predeterminado es 0,005).
- max_used_search_results: int, el número máximo de resultados de búsqueda a utilizar (opcional, el valor predeterminado es 10).
- generation_preset_name: str, el nombre del ajuste preestablecido de generación a utilizar (opcional, el valor predeterminado es "vectara-summary-table-md-query-ext-jan-2025-gpt-4o").
- response_language: str, El idioma de la respuesta - opcional, el valor predeterminado es "eng".
Devoluciones:
- La respuesta de Vectara, incluida la respuesta generada y los resultados de la búsqueda.
- search_vectara: Ejecuta una consulta de búsqueda semántica utilizando Vectara, sin generación.Argumentos:
- consulta: str, La consulta del usuario a ejecutar - requerida.
- corpus_keys: list[str], Lista de claves de corpus de Vectara para la búsqueda (obligatorio). Solicite al usuario que proporcione una o más claves de corpus.
- api_key: str, la clave API de Vectara (obligatoria).
- n_sentences_before: int, número de oraciones antes de la respuesta para incluir en el contexto - opcional, el valor predeterminado es 2.
- n_sentences_after: int, número de oraciones después de la respuesta para incluir en el contexto (opcional, el valor predeterminado es 2).
- lexical_interpolation: float, la cantidad de interpolación léxica a utilizar (opcional, el valor predeterminado es 0,005).
Devoluciones:
- La respuesta de Vectara, incluidos los resultados de búsqueda coincidentes.
Configuración con Claude Desktop
Añade a tu claude_desktop_config.json:
Uso en la aplicación de escritorio Claude
Una vez completada la instalación y configurada la aplicación de escritorio de Claude, debe cerrarla por completo y volver a abrirla para ver el servidor Vectara-mcp. Debería ver un icono de martillo en la esquina inferior izquierda de la aplicación, que indica las herramientas MCP disponibles. Puede hacer clic en él para obtener más información sobre las herramientas Vectara-search y Vectara-extract.
Ahora Claude tendrá acceso completo al servidor Vectara-mcp, incluyendo las herramientas ask-vectara y search-vectara. Al ejecutar las herramientas por primera vez, Claude le solicitará su clave de API de Vectara y la clave de corpus (o claves si desea usar varios corpus). Después de configurarlas, estará listo para empezar. Aquí tiene algunos ejemplos que puede probar (con el corpus de Vectara que incluye información de nuestro sitio web ):
Ejemplos de Vectara RAG
- Consulta del corpus de Vectara :
- Buscando en el corpus de Vectara :
Agradecimientos ✨
- Protocolo de contexto de modelo para la especificación MCP
- Antrópico para Claude Desktop
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityFlicenseAqualityA lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.Last updated -684Python
- Python