Servidor MCP de Atla
Una implementación de servidor MCP que proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para la evaluación de LLMJ de última generación.
Obtenga más información sobre Atla aquí . Obtenga más información sobre el Protocolo de Contexto de Modelo aquí .
Herramientas disponibles
evaluate_llm_response
: Evalúa la respuesta de un LLM a una solicitud utilizando criterios de evaluación determinados. Esta función utiliza un modelo de evaluación Atla para generar un diccionario con una puntuación de la respuesta del modelo y una crítica textual con comentarios sobre la misma.evaluate_llm_response_on_multiple_criteria
: Evalúa la respuesta de un LLM a una solicitud según múltiples criterios de evaluación. Esta función utiliza un modelo de evaluación de Atla para generar una lista de diccionarios, cada uno con una puntuación de evaluación y una crítica para un criterio determinado.
Uso
Para usar el servidor MCP, necesitará una clave API de Atla. Puede encontrar su clave API actual aquí o crear una nueva aquí .
Instalación
Recomendamos usar
uv
para administrar el entorno de Python. Consulte aquí las instrucciones de instalación.
Ejecución manual del servidor
Una vez que haya instalado uv
y tenga su clave API de Atla, puede ejecutar manualmente el servidor MCP usando uvx
(que es proporcionado por uv
):
Conectando al servidor
¿Tienes problemas o necesitas ayuda para conectarte con otro cliente? ¡No dudes en abrir una incidencia o contactarnos !
SDK de agentes de OpenAI
Para obtener más detalles sobre el uso del SDK de OpenAI Agents con servidores MCP, consulte la documentación oficial .
- Instalar el SDK de OpenAI Agents:
- Utilice el SDK de OpenAI Agents para conectarse al servidor:
Escritorio de Claude
Para obtener más detalles sobre la configuración de servidores MCP en Claude Desktop, consulte la guía de inicio rápido oficial de MCP .
- Agregue lo siguiente a su archivo
claude_desktop_config.json
:
- Reinicie Claude Desktop para aplicar los cambios.
Ahora debería ver las opciones de atla-mcp-server
en la lista de herramientas MCP disponibles.
Cursor
Para obtener más detalles sobre la configuración de servidores MCP en Cursor, consulte la documentación oficial .
- Agregue lo siguiente a su archivo
.cursor/mcp.json
:
Ahora debería ver atla-mcp-server
en la lista de servidores MCP disponibles.
Contribuyendo
¡Agradecemos sus contribuciones! Consulte el archivo CONTRIBUTING.md para más detalles.
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
El servidor Atla MCP proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para una evaluación LLMJ de última generación.
Related MCP Servers
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -325PythonMIT License
- AsecurityAlicenseAqualityAn MCP server implementation that enables interaction with the Letta API for managing agents, memory blocks, and tools in the Letta system.Last updated -925JavaScriptMIT License
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6Python
- -securityFlicense-qualityAn MCP server that fetches real-time documentation for popular libraries like Langchain, Llama-Index, MCP, and OpenAI, allowing LLMs to access updated library information beyond their knowledge cut-off dates.Last updated -2Python