Skip to main content
Glama

Atla

Official
by atla-ai

Atla MCP 서버

LLM이 Atla API와 상호 작용하여 최첨단 LLMJ 평가를 수행할 수 있는 표준화된 인터페이스를 제공하는 MCP 서버 구현입니다.

Atla에 대한 자세한 내용은 여기를 참조하세요. 모델 컨텍스트 프로토콜에 대한 자세한 내용은 여기를 참조하세요.

사용 가능한 도구

  • evaluate_llm_response : 주어진 평가 기준을 사용하여 프롬프트에 대한 LLM의 응답을 평가합니다. 이 함수는 Atla 평가 모델을 기반으로 모델의 응답 점수와 모델 응답에 대한 피드백을 포함하는 텍스트 비평을 포함하는 사전을 반환합니다.
  • evaluate_llm_response_on_multiple_criteria : LLM의 프롬프트 응답을 여러 평가 기준에 따라 평가합니다. 이 함수는 Atla 평가 모델을 기반으로 각 기준에 대한 평가 점수와 비평을 포함하는 사전 목록을 반환합니다.

용법

MCP 서버를 사용하려면 Atla API 키가 필요합니다. 기존 API 키는 여기 에서 확인하거나 새 API 키를 생성하세요.

설치

Python 환경을 관리하려면 uv 사용하는 것이 좋습니다. 설치 지침은 여기를 참조하세요.

수동으로 서버 실행

uv 설치하고 Atla API 키를 받으면 uvx ( uv 에서 제공)를 사용하여 MCP 서버를 수동으로 실행할 수 있습니다.

지엑스피1

서버에 연결

문제가 있거나 다른 클라이언트 연결에 도움이 필요하신가요? 언제든지 문제를 제기하시거나 저희에게 문의해 주세요 !

OpenAI 에이전트 SDK

MCP 서버와 함께 OpenAI Agents SDK를 사용하는 방법에 대한 자세한 내용은 공식 문서를 참조하세요.

  1. OpenAI 에이전트 SDK를 설치하세요:
pip install openai-agents
  1. OpenAI Agents SDK를 사용하여 서버에 연결합니다.
import os from agents import Agent from agents.mcp import MCPServerStdio async with MCPServerStdio( params={ "command": "uvx", "args": ["atla-mcp-server"], "env": {"ATLA_API_KEY": os.environ.get("ATLA_API_KEY")} } ) as atla_mcp_server: ...
클로드 데스크탑

Claude Desktop에서 MCP 서버를 구성하는 방법에 대한 자세한 내용은 공식 MCP 빠른 시작 가이드를 참조하세요.

  1. claude_desktop_config.json 파일에 다음을 추가하세요.
{ "mcpServers": { "atla-mcp-server": { "command": "uvx", "args": ["atla-mcp-server"], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }
  1. 변경 사항을 적용하려면 Claude Desktop을 다시 시작하세요 .

이제 사용 가능한 MCP 도구 목록에서 atla-mcp-server 의 옵션을 볼 수 있습니다.

커서

Cursor에서 MCP 서버를 구성하는 방법에 대한 자세한 내용은 공식 문서를 참조하세요.

  1. .cursor/mcp.json 파일에 다음을 추가하세요.
{ "mcpServers": { "atla-mcp-server": { "command": "uvx", "args": ["atla-mcp-server"], "env": { "ATLA_API_KEY": "<your-atla-api-key>" } } } }

이제 사용 가능한 MCP 서버 목록에 atla-mcp-server 표시됩니다.

기여하다

기여를 환영합니다! 자세한 내용은 CONTRIBUTING.md 파일을 참조하세요.

특허

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 라이선스 파일을 참조하세요.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Atla MCP 서버는 LLM이 Atla API와 상호 작용하여 최첨단 LLMJ 평가를 수행할 수 있는 표준화된 인터페이스를 제공합니다.

  1. 사용 가능한 도구
    1. 용법
      1. 설치
      2. 수동으로 서버 실행
      3. 서버에 연결
    2. 기여하다
      1. 특허

        Related MCP Servers

        • A
          security
          A
          license
          A
          quality
          An MCP server that provides LLMs access to other LLMs
          Last updated -
          4
          14
          12
          JavaScript
          MIT License
        • -
          security
          A
          license
          -
          quality
          An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
          Last updated -
          177
          Python
          MIT License
          • Apple
        • -
          security
          A
          license
          -
          quality
          MCP server that enables LLMs to interact with Tripadvisor API, supporting location data, reviews, and photos through standardized MCP interfaces
          Last updated -
          Python
          MIT License
          • Linux
          • Apple
        • A
          security
          F
          license
          A
          quality
          A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
          Last updated -
          6
          218
          Python

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/atla-ai/atla-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server