Atla MCP サーバー
最先端の LLMJ 評価のために LLM が Atla API と対話するための標準化されたインターフェースを提供する MCP サーバー実装。
Atlaの詳細については、こちらをご覧ください。Model Context Protocolの詳細については、こちらをご覧ください。
利用可能なツール
evaluate_llm_response: 指定された評価基準を用いて、LLMのプロンプトへの応答を評価します。この関数は、内部的にAtla評価モデルを使用して、モデルの応答のスコアを含む辞書と、モデルの応答に対するフィードバックを含むテキスト形式の批評を返します。evaluate_llm_response_on_multiple_criteria: プロンプトに対するLLMの応答を複数の評価基準に基づいて評価します。この関数は、内部的にAtla評価モデルを使用して、指定された基準に対する評価スコアと批評を含む辞書のリストを返します。
Related MCP server: Letta MCP Server
使用法
MCPサーバーを使用するには、Atla APIキーが必要です。既存のAPIキーはこちらで確認するか、こちらから新しいAPIキーを作成してください。
インストール
Python環境の管理には
uv使用をお勧めします。インストール手順についてはこちらをご覧ください。
サーバーを手動で実行する
uvをインストールして Atla API キーを取得したら、 uvx ( uvによって提供される) を使用して MCP サーバーを手動で実行できます。
サーバーに接続しています
別のクライアントへの接続で問題が発生したり、サポートが必要な場合は、お気軽に問題を報告したり、お問い合わせください。
OpenAIエージェントSDK
OpenAI Agents SDK を MCP サーバーで使用する方法の詳細については、公式ドキュメントを参照してください。
OpenAI Agents SDK をインストールします。
OpenAI Agents SDK を使用してサーバーに接続します。
クロードデスクトップ
Claude Desktop で MCP サーバーを構成する方法の詳細については、公式の MCP クイックスタート ガイドを参照してください。
claude_desktop_config.jsonファイルに次の内容を追加します。
変更を適用するには、 Claude Desktop を再起動します。
利用可能な MCP ツールのリストに、 atla-mcp-serverのオプションが表示されるようになります。
カーソル
Cursor で MCP サーバーを構成する方法の詳細については、公式ドキュメントを参照してください。
.cursor/mcp.jsonファイルに次のコードを追加します。
利用可能な MCP サーバーのリストにatla-mcp-server表示されるはずです。
貢献
貢献を歓迎します!詳細については、 CONTRIBUTING.mdファイルをご覧ください。
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。