remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides compatibility with the OpenAI Agents SDK, allowing users to connect to the Atla MCP server for LLM evaluation services.
Servidor MCP de Atla
Una implementación de servidor MCP que proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para la evaluación de LLMJ de última generación.
Obtenga más información sobre Atla aquí . Obtenga más información sobre el Protocolo de Contexto de Modelo aquí .
Herramientas disponibles
evaluate_llm_response
: Evalúa la respuesta de un LLM a una solicitud utilizando criterios de evaluación determinados. Esta función utiliza un modelo de evaluación Atla para generar un diccionario con una puntuación de la respuesta del modelo y una crítica textual con comentarios sobre la misma.evaluate_llm_response_on_multiple_criteria
: Evalúa la respuesta de un LLM a una solicitud según múltiples criterios de evaluación. Esta función utiliza un modelo de evaluación de Atla para generar una lista de diccionarios, cada uno con una puntuación de evaluación y una crítica para un criterio determinado.
Uso
Para usar el servidor MCP, necesitará una clave API de Atla. Puede encontrar su clave API actual aquí o crear una nueva aquí .
Instalación
Recomendamos usar
uv
para administrar el entorno de Python. Consulte aquí las instrucciones de instalación.
- Clonar el repositorio:
- Crear y activar un entorno virtual:
- Instale dependencias según sus necesidades:
- Agregue su
ATLA_API_KEY
a su entorno:
Conectarse al servidor
Una vez que haya instalado el servidor, podrá conectarse a él utilizando cualquier cliente MCP.
Aquí proporcionamos instrucciones específicas para la conexión a algunos clientes MCP comunes.
A continuación:
- Si tiene problemas con
uv
, quizás deba proporcionar la ruta completa del ejecutableuv
. Puede encontrarla ejecutandowhich uv
en su terminal.path/to/atla-mcp-server
es la ruta al directorioatla-mcp-server
, que es la ruta al repositorio que clonó en el paso 1.
¿Tienes problemas o necesitas ayuda para conectarte con otro cliente? ¡No dudes en abrir una incidencia o contactarnos !
SDK de agentes de OpenAI
Para obtener más detalles sobre el uso del SDK de OpenAI Agents con servidores MCP, consulte la documentación oficial .
- Instalar el SDK de OpenAI Agents:
- Utilice el SDK de OpenAI Agents para conectarse al servidor:
Escritorio de Claude
Para obtener más detalles sobre la configuración de servidores MCP en Claude Desktop, consulte la guía de inicio rápido oficial de MCP .
- Agregue lo siguiente a su archivo
claude_desktop_config.json
:
- Reinicie Claude Desktop para aplicar los cambios.
Ahora debería ver las opciones de atla-mcp-server
en la lista de herramientas MCP disponibles.
Cursor
Para obtener más detalles sobre la configuración de servidores MCP en Cursor, consulte la documentación oficial .
- Agregue lo siguiente a su archivo
.cursor/mcp.json
:
Ahora debería ver atla-mcp-server
en la lista de servidores MCP disponibles.
Ejecución del servidor
Si está utilizando un cliente MCP, generalmente no necesitará ejecutar el servidor localmente.
Ejecutar el servidor localmente puede ser útil para el desarrollo y la depuración. Tras la instalación, puede ejecutar el servidor de varias maneras:
- Usando
uv run
(recomendado):
- Usando Python directamente:
- Con el Inspector MCP :
Todos los métodos iniciarán el servidor MCP con el transporte stdio
, listo para aceptar conexiones de clientes MCP. El Inspector MCP proporcionará una interfaz web para probar y depurar el servidor MCP.
Contribuyendo
¡Agradecemos sus contribuciones! Consulte el archivo CONTRIBUTING.md para más detalles.
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.
You must be authenticated.
El servidor Atla MCP proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para una evaluación LLMJ de última generación.