Atla MCP サーバー
最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供する MCP サーバー実装。
Atlaの詳細については、こちらをご覧ください。Model Context Protocolの詳細については、こちらをご覧ください。
利用可能なツール
evaluate_llm_response
: 指定された評価基準を用いて、LLMのプロンプトへの応答を評価します。この関数は、内部的にAtla評価モデルを使用して、モデルの応答のスコアを含む辞書と、モデルの応答に対するフィードバックを含むテキスト形式の批評を返します。evaluate_llm_response_on_multiple_criteria
: プロンプトに対するLLMの応答を複数の評価基準に基づいて評価します。この関数は、内部的にAtla評価モデルを使用して、指定された基準に対する評価スコアと批評を含む辞書のリストを返します。
使用法
MCPサーバーを使用するには、Atla APIキーが必要です。既存のAPIキーはこちらで確認するか、こちらから新しいAPIキーを作成してください。
インストール
Python環境の管理には
uv
使用をお勧めします。インストール手順についてはこちらをご覧ください。
サーバーを手動で実行する
uv
をインストールして Atla API キーを取得したら、 uvx
( uv
によって提供される) を使用して MCP サーバーを手動で実行できます。
サーバーに接続しています
別のクライアントへの接続で問題が発生したり、サポートが必要な場合は、お気軽に問題を報告したり、お問い合わせください。
OpenAIエージェントSDK
OpenAI Agents SDK を MCP サーバーで使用する方法の詳細については、公式ドキュメントを参照してください。
- OpenAI Agents SDK をインストールします。
- OpenAI Agents SDK を使用してサーバーに接続します。
クロードデスクトップ
Claude Desktop で MCP サーバーを構成する方法の詳細については、公式の MCP クイックスタート ガイドを参照してください。
claude_desktop_config.json
ファイルに次の内容を追加します。
- 変更を適用するには、 Claude Desktop を再起動します。
利用可能な MCP ツールのリストに、 atla-mcp-server
のオプションが表示されるようになります。
カーソル
Cursor で MCP サーバーを構成する方法の詳細については、公式ドキュメントを参照してください。
.cursor/mcp.json
ファイルに次のコードを追加します。
利用可能な MCP サーバーのリストにatla-mcp-server
表示されるはずです。
貢献
貢献を歓迎します!詳細については、 CONTRIBUTING.mdファイルをご覧ください。
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Atla MCP サーバーは、最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供します。
Related MCP Servers
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -325PythonMIT License
- AsecurityAlicenseAqualityAn MCP server implementation that enables interaction with the Letta API for managing agents, memory blocks, and tools in the Letta system.Last updated -925JavaScriptMIT License
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6Python
- -securityFlicense-qualityAn MCP server that fetches real-time documentation for popular libraries like Langchain, Llama-Index, MCP, and OpenAI, allowing LLMs to access updated library information beyond their knowledge cut-off dates.Last updated -2Python