Skip to main content
Glama

Atla

Official
by atla-ai

Atla MCP サーバー

最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供する MCP サーバー実装。

Atlaの詳細については、こちらをご覧ください。Model Context Protocolの詳細については、こちらをご覧ください。

利用可能なツール

  • evaluate_llm_response : 指定された評価基準を用いて、LLMのプロンプトへの応答を評価します。この関数は、内部的にAtla評価モデルを使用して、モデルの応答のスコアを含む辞書と、モデルの応答に対するフィードバックを含むテキスト形式の批評を返します。
  • evaluate_llm_response_on_multiple_criteria : プロンプトに対するLLMの応答を複数の評価基準に基づいて評価します。この関数は、内部的にAtla評価モデルを使用して、指定された基準に対する評価スコアと批評を含む辞書のリストを返します。

使用法

MCPサーバーを使用するには、Atla APIキーが必要です。既存のAPIキーはこちらで確認するか、こちらから新しいAPIキーを作成してください。

インストール

Python環境の管理にはuv使用をお勧めします。インストール手順についてはこちらをご覧ください。

サーバーを手動で実行する

uvをインストールして Atla API キーを取得したら、 uvx ( uvによって提供される) を使用して MCP サーバーを手動で実行できます。

ATLA_API_KEY=<your-api-key> uvx atla-mcp-server

サーバーに接続しています

別のクライアントへの接続で問題が発生したり、サポートが必要な場合は、お気軽に問題を報告したり、お問い合わせください

OpenAIエージェントSDK

OpenAI Agents SDK を MCP サーバーで使用する方法の詳細については、公式ドキュメントを参照してください。

  1. OpenAI Agents SDK をインストールします。
pip install openai-agents
  1. OpenAI Agents SDK を使用してサーバーに接続します。
import os from agents import Agent from agents.mcp import MCPServerStdio async with MCPServerStdio( params={ "command": "uvx", "args": ["atla-mcp-server"], "env": {"ATLA_API_KEY": os.environ.get("ATLA_API_KEY")} } ) as atla_mcp_server: ...
クロードデスクトップ

Claude Desktop で MCP サーバーを構成する方法の詳細については、公式の MCP クイックスタート ガイドを参照してください。

  1. claude_desktop_config.jsonファイルに次の内容を追加します。
{ "mcpServers": { "atla-mcp-server": { "command": "uvx", "args": ["atla-mcp-server"], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }
  1. 変更を適用するには、 Claude Desktop を再起動します

利用可能な MCP ツールのリストに、 atla-mcp-serverのオプションが表示されるようになります。

カーソル

Cursor で MCP サーバーを構成する方法の詳細については、公式ドキュメントを参照してください。

  1. .cursor/mcp.jsonファイルに次のコードを追加します。
{ "mcpServers": { "atla-mcp-server": { "command": "uvx", "args": ["atla-mcp-server"], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }

利用可能な MCP サーバーのリストにatla-mcp-server表示されるはずです。

貢献

貢献を歓迎します!詳細については、 CONTRIBUTING.mdファイルをご覧ください。

ライセンス

このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Atla MCP サーバーは、最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供します。

  1. 利用可能なツール
    1. 使用法
      1. インストール
      2. サーバーを手動で実行する
      3. サーバーに接続しています
    2. 貢献
      1. ライセンス

        Related MCP Servers

        • A
          security
          A
          license
          A
          quality
          An MCP server that provides LLMs access to other LLMs
          Last updated -
          4
          14
          12
          JavaScript
          MIT License
        • -
          security
          A
          license
          -
          quality
          An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
          Last updated -
          177
          Python
          MIT License
          • Apple
        • -
          security
          A
          license
          -
          quality
          MCP server that enables LLMs to interact with Tripadvisor API, supporting location data, reviews, and photos through standardized MCP interfaces
          Last updated -
          Python
          MIT License
          • Linux
          • Apple
        • A
          security
          F
          license
          A
          quality
          A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
          Last updated -
          6
          218
          Python

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/atla-ai/atla-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server