Skip to main content
Glama

Practera MCP 서버

Practera의 GraphQL API에 대한 액세스를 제공하는 MCP(Model Context Protocol) 서버로, AI 모델이 Practera 학습 데이터를 쿼리할 수 있도록 합니다.

왜 Practera MCP인가요?

이 MCP 서버를 사용하면 LLM을 사용하여 Practera 프로젝트와 평가를 분석할 수 있습니다. 현재 이 기능은 학습 설계자(작성자 사용자)에게만 제공됩니다.

이 MCP 서버를 사용하는 방법에 대한 몇 가지 예는 다음과 같습니다.

  • 프로젝트의 구조를 분석하고 확장, 압축이 가능한 방법을 찾아보세요.

  • 다양한 학년이나 다양한 청중에 맞춰 프로젝트를 재구성합니다.

  • 프로젝트의 평가를 평가하고 개선할 수 있는 방법을 찾아보세요.

  • 프로젝트 청사진과 템플릿을 생성합니다.

  • 평가 및 질문 생성

  • 프로젝트의 공통 카트리지 버전을 만들거나 다른 LMS 데이터 파일에서 프로젝트를 가져옵니다.

로드맵

[ ] LLM 보고서 생성을 위한 메트릭 API 지원 [ ] 보안 액세스를 위한 OAuth 2.1 지원 [ ] 평가, 이정표, 활동, 작업의 동적 생성 지원 [ ] 미디어 자산 생성 지원 [ ] 프로젝트 컨텍스트에 따른 동적 리소스/도구/프롬프트 선택

특징

  • MCP를 위한 SSE(Server-Sent Events) 전송

  • AWS Lambda 배포 지원

  • Practera API와 GraphQL 통합

  • 지역별 엔드포인트

  • API 키 인증

  • 보안 액세스를 위한 OAuth 2.1 지원

필수 조건

  • 노드.js 18+

  • 엔피엠

  • AWS 계정(배포용)

  • Practera API 키

  • OAuth 클라이언트 자격 증명(OAuth 인증용)

설치

  1. 이 저장소를 복제하세요

  2. 종속성 설치:

    지엑스피1

지역 개발

  1. 개발 모드로 서버를 시작합니다.

    npm run dev
  2. 서버는 http://localhost:3000/sse 에서 사용할 수 있습니다.

  3. OAuth 엔드포인트는 http://localhost:3000/oauth/* 에서 접근할 수 있습니다.

짓다

배포를 위해 프로젝트를 빌드하려면:

npm run build

AWS Lambda에 배포

  1. AWS CLI가 설치되고 구성되어 있는지 확인하세요.

  2. OAuth 구성 매개변수를 설정하세요.

    export PRACTERA_CLIENT_ID=your_client_id export REDIRECT_URI=your_redirect_uri export ISSUER_URL=your_issuer_url export BASE_URL=your_base_url
  3. Serverless Framework를 사용하여 배포:

    npm run deploy -- --param="practeraClientId=$PRACTERA_CLIENT_ID" --param="redirectUri=$REDIRECT_URI" --param="issuerUrl=$ISSUER_URL" --param="baseUrl=$BASE_URL"

인증 방법

API 키 인증

간단한 통합을 위해 다음을 제공하여 API 키 인증을 사용할 수 있습니다.

  • 각 도구 호출의 apikey 매개변수

  • Practera 지역을 지정하는 region 매개변수

OAuth 2.1 인증(곧 출시)

서버는 또한 보안 인증 흐름을 위해 OAuth 2.1을 지원합니다.

  1. 인증을 위해 사용자를 /oauth/authorize 로 리디렉션합니다.

  2. /oauth/token 에서 액세스 토큰으로 인증 코드를 교환하세요.

  3. 베어러 토큰을 사용하여 MCP 서버 엔드포인트에 액세스합니다.

  4. 필요한 경우 /oauth/revoke 에서 토큰을 취소합니다.

사용 가능한 MCP 도구

이 서버는 다음 MCP 도구를 제공합니다.

  • mcp_practera_get_project - Practera 프로젝트에 대한 세부 정보 가져오기

  • mcp_practera_get_assessment - Practera 평가에 대한 세부 정보를 받으세요

MCP 클라이언트 구성

MCP 클라이언트에서 이 MCP 서버에 연결할 때 다음을 제공해야 합니다.

  1. Practera 인증을 위한 API 키(API 키 인증을 사용하는 경우)

  2. Practera API 지역(usa, aus, euk 또는 p2-stage)

  3. OAuth 구성(OAuth 인증을 사용하는 경우)

Claude 데스크톱 구성 예

{ "practera": { "url": "https://your-lambda-url.lambda-url.us-east-1.on.aws/mcp" } }

예시 사용 (Claude와 함께)

MCP 도구를 사용하여 Claude에게 Practera 데이터와 상호 작용하도록 요청할 수 있습니다.

Please use the MCP tools to get information about project 123 from Practera.

그런 다음 Claude는 mcp_practera_get_project 도구를 사용하여 구성에서 API 키와 지역을 제공합니다.

특허

MIT 라이센스

-
security - not tested
-
license - not tested
-
quality - not tested

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
    Last updated -
    676
    1
    MIT License
    • Apple
  • -
    security
    F
    license
    -
    quality
    A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
    Last updated -
    3
    • Apple
    • Linux
  • A
    security
    F
    license
    A
    quality
    An integration server that enables AI assistants like Claude or Cursor to access and interact with strateegia projects through the strateegia API.
    Last updated -
    1
    24
    • Apple
  • A
    security
    F
    license
    A
    quality
    A Model Context Protocol server that enables AI agents to dynamically interact with Hasura GraphQL endpoints through natural language, supporting schema discovery, data querying/manipulation, and aggregations.
    Last updated -
    9
    16

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/intersective/practera-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server