Atla

Official

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Provides compatibility with the OpenAI Agents SDK, allowing users to connect to the Atla MCP server for LLM evaluation services.

Servidor MCP de Atla

Una implementación de servidor MCP que proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para la evaluación de LLMJ de última generación.

Obtenga más información sobre Atla aquí . Obtenga más información sobre el Protocolo de Contexto de Modelo aquí .

Herramientas disponibles

  • evaluate_llm_response : Evalúa la respuesta de un LLM a una solicitud utilizando criterios de evaluación determinados. Esta función utiliza un modelo de evaluación Atla para generar un diccionario con una puntuación de la respuesta del modelo y una crítica textual con comentarios sobre la misma.
  • evaluate_llm_response_on_multiple_criteria : Evalúa la respuesta de un LLM a una solicitud según múltiples criterios de evaluación. Esta función utiliza un modelo de evaluación de Atla para generar una lista de diccionarios, cada uno con una puntuación de evaluación y una crítica para un criterio determinado.

Uso

Para usar el servidor MCP, necesitará una clave API de Atla. Puede encontrar su clave API actual aquí o crear una nueva aquí .

Instalación

Recomendamos usar uv para administrar el entorno de Python. Consulte aquí las instrucciones de instalación.

  1. Clonar el repositorio:
git clone https://github.com/atla-ai/atla-mcp-server.git cd atla-mcp-server
  1. Crear y activar un entorno virtual:
uv venv source .venv/bin/activate
  1. Instale dependencias según sus necesidades:
# Basic installation uv pip install -e .
# Installation with development tools (recommended) uv pip install -e ".[dev]" pre-commit install
  1. Agregue su ATLA_API_KEY a su entorno:
export ATLA_API_KEY=<your-atla-api-key>

Conectarse al servidor

Una vez que haya instalado el servidor, podrá conectarse a él utilizando cualquier cliente MCP.

Aquí proporcionamos instrucciones específicas para la conexión a algunos clientes MCP comunes.

A continuación:

  • Si tiene problemas con uv , quizás deba proporcionar la ruta completa del ejecutable uv . Puede encontrarla ejecutando which uv en su terminal.
  • path/to/atla-mcp-server es la ruta al directorio atla-mcp-server , que es la ruta al repositorio que clonó en el paso 1.

¿Tienes problemas o necesitas ayuda para conectarte con otro cliente? ¡No dudes en abrir una incidencia o contactarnos !

SDK de agentes de OpenAI

Para obtener más detalles sobre el uso del SDK de OpenAI Agents con servidores MCP, consulte la documentación oficial .

  1. Instalar el SDK de OpenAI Agents:
pip install openai-agents
  1. Utilice el SDK de OpenAI Agents para conectarse al servidor:
import os from agents import Agent from agents.mcp import MCPServerStdio async with MCPServerStdio( params={ "command": "uv", "args": ["run", "--directory", "/path/to/atla-mcp-server", "atla-mcp-server"], "env": {"ATLA_API_KEY": os.environ.get("ATLA_API_KEY")} } ) as atla_mcp_server: ...

Escritorio de Claude

Para obtener más detalles sobre la configuración de servidores MCP en Claude Desktop, consulte la guía de inicio rápido oficial de MCP .

  1. Agregue lo siguiente a su archivo claude_desktop_config.json :
{ "mcpServers": { "atla-mcp-server": { "command": "uv", "args": [ "--directory", "/path/to/atla-mcp-server", "run", "atla-mcp-server" ], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }
  1. Reinicie Claude Desktop para aplicar los cambios.

Ahora debería ver las opciones de atla-mcp-server en la lista de herramientas MCP disponibles.

Cursor

Para obtener más detalles sobre la configuración de servidores MCP en Cursor, consulte la documentación oficial .

  1. Agregue lo siguiente a su archivo .cursor/mcp.json :
{ "mcpServers": { "atla-mcp-server": { "command": "uv", "args": [ "--directory", "/path/to/atla-mcp-server", "run", "atla-mcp-server" ], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }

Ahora debería ver atla-mcp-server en la lista de servidores MCP disponibles.

Ejecución del servidor

Si está utilizando un cliente MCP, generalmente no necesitará ejecutar el servidor localmente.

Ejecutar el servidor localmente puede ser útil para el desarrollo y la depuración. Tras la instalación, puede ejecutar el servidor de varias maneras:

  1. Usando uv run (recomendado):
cd path/to/atla-mcp-server uv run atla-mcp-server
  1. Usando Python directamente:
cd path/to/atla-mcp-server python -m atla_mcp_server
  1. Con el Inspector MCP :
cd path/to/atla-mcp-server uv run mcp dev src/atla_mcp_server/debug.py

Todos los métodos iniciarán el servidor MCP con el transporte stdio , listo para aceptar conexiones de clientes MCP. El Inspector MCP proporcionará una interfaz web para probar y depurar el servidor MCP.

Contribuyendo

¡Agradecemos sus contribuciones! Consulte el archivo CONTRIBUTING.md para más detalles.

Licencia

Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

El servidor Atla MCP proporciona una interfaz estandarizada para que los LLM interactúen con la API de Atla para una evaluación LLMJ de última generación.

  1. Available Tools
    1. Usage
      1. Installation
      2. Connecting to the Server
      3. Running the Server
    2. Contributing
      1. License
        ID: 0gm3vxdtdx