Atla

Official

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Provides compatibility with the OpenAI Agents SDK, allowing users to connect to the Atla MCP server for LLM evaluation services.

Atla MCP サーバー

最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供する MCP サーバー実装。

Atlaの詳細については、こちらをご覧ください。Model Context Protocolの詳細については、こちらをご覧ください。

利用可能なツール

  • evaluate_llm_response : 指定された評価基準を用いて、LLMのプロンプトへの応答を評価します。この関数は、内部的にAtla評価モデルを使用して、モデルの応答のスコアを含む辞書と、モデルの応答に対するフィードバックを含むテキスト形式の批評を返します。
  • evaluate_llm_response_on_multiple_criteria : プロンプトに対するLLMの応答を複数の評価基準に基づいて評価します。この関数は、内部的にAtla評価モデルを使用して、指定された基準に対する評価スコアと批評を含む辞書のリストを返します。

使用法

MCPサーバーを使用するには、Atla APIキーが必要です。既存のAPIキーはこちらで確認するか、こちらから新しいAPIキーを作成してください。

インストール

Python環境の管理にはuv使用をお勧めします。インストール手順についてはこちらをご覧ください。

  1. リポジトリをクローンします。
git clone https://github.com/atla-ai/atla-mcp-server.git cd atla-mcp-server
  1. 仮想環境を作成してアクティブ化します。
uv venv source .venv/bin/activate
  1. ニーズに応じて依存関係をインストールします。
# Basic installation uv pip install -e .
# Installation with development tools (recommended) uv pip install -e ".[dev]" pre-commit install
  1. ATLA_API_KEYを環境に追加します。
export ATLA_API_KEY=<your-atla-api-key>

サーバーへの接続

サーバーをインストールすると、任意の MCP クライアントを使用してサーバーに接続できます。

ここでは、いくつかの一般的な MCP クライアントへの接続に関する具体的な手順を示します。

以下は内容です。

  • uvで問題が発生している場合は、 uv実行ファイルへのフルパスを渡す必要があるかもしれません。ターミナルでwhich uvを実行すると確認できます。
  • path/to/atla-mcp-server``atla-mcp-serverディレクトリへのパスであり、手順 1 でクローンしたリポジトリへのパスです。

別のクライアントへの接続で問題が発生したり、サポートが必要な場合は、お気軽に問題を報告したり、お問い合わせください

OpenAIエージェントSDK

OpenAI Agents SDK を MCP サーバーで使用する方法の詳細については、公式ドキュメントを参照してください。

  1. OpenAI Agents SDK をインストールします。
pip install openai-agents
  1. OpenAI Agents SDK を使用してサーバーに接続します。
import os from agents import Agent from agents.mcp import MCPServerStdio async with MCPServerStdio( params={ "command": "uv", "args": ["run", "--directory", "/path/to/atla-mcp-server", "atla-mcp-server"], "env": {"ATLA_API_KEY": os.environ.get("ATLA_API_KEY")} } ) as atla_mcp_server: ...

クロードデスクトップ

Claude Desktop で MCP サーバーを構成する方法の詳細については、公式の MCP クイックスタート ガイドを参照してください。

  1. claude_desktop_config.jsonファイルに次の内容を追加します。
{ "mcpServers": { "atla-mcp-server": { "command": "uv", "args": [ "--directory", "/path/to/atla-mcp-server", "run", "atla-mcp-server" ], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }
  1. 変更を適用するには、 Claude Desktop を再起動します

利用可能な MCP ツールのリストに、 atla-mcp-serverのオプションが表示されるようになります。

カーソル

Cursor で MCP サーバーを構成する方法の詳細については、公式ドキュメントを参照してください。

  1. .cursor/mcp.jsonファイルに次のコードを追加します。
{ "mcpServers": { "atla-mcp-server": { "command": "uv", "args": [ "--directory", "/path/to/atla-mcp-server", "run", "atla-mcp-server" ], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }

利用可能な MCP サーバーのリストにatla-mcp-server表示されるはずです。

サーバーの実行

MCP クライアントを使用している場合は、通常、サーバーをローカルで実行する必要はありません。

サーバーをローカルで実行すると、開発やデバッグに役立ちます。インストール後、以下のいくつかの方法でサーバーを実行できます。

  1. uv runを使用する (推奨):
cd path/to/atla-mcp-server uv run atla-mcp-server
  1. Python を直接使用する:
cd path/to/atla-mcp-server python -m atla_mcp_server
  1. MCPインスペクターを使用する場合:
cd path/to/atla-mcp-server uv run mcp dev src/atla_mcp_server/debug.py

いずれの方法でも、MCPサーバーはstdioトランスポートを使用して起動され、MCPクライアントからの接続を受け入れる準備が整います。MCPインスペクターは、MCPサーバーのテストとデバッグのためのWebインターフェースを提供します。

貢献

貢献を歓迎します!詳細については、 CONTRIBUTING.mdファイルをご覧ください。

ライセンス

このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Atla MCP サーバーは、最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供します。

  1. Available Tools
    1. Usage
      1. Installation
      2. Connecting to the Server
      3. Running the Server
    2. Contributing
      1. License
        ID: 0gm3vxdtdx