Practera MCP サーバー
Practera の GraphQL API へのアクセスを提供し、AI モデルが Practera 学習データを照会できるようにする MCP (Model Context Protocol) サーバー。
Practera MCP を選ぶ理由
このMCPサーバーでは、LLMを使用してPracteraのプロジェクトと評価を分析できます。現時点では、これは学習デザイナー(作成者ユーザー)のみが利用できます。
この MCP サーバーの使用方法の例をいくつか示します。
- プロジェクトの構造を分析し、どのように拡張、圧縮できるかを検討します。
- 異なる学年や異なる対象者に合わせてプロジェクトを再構成します。
- プロジェクトの評価を評価し、改善方法を検討します。
- プロジェクトの青写真とテンプレートを生成します。
- 評価と質問を生成する
- プロジェクトの共通カートリッジ バージョンを作成するか、他の LMS データ ファイルからプロジェクトをインポートします。
ロードマップ
[ ] LLMレポートを生成するためのメトリクスAPIをサポート [ ] 安全なアクセスのためのOAuth 2.1をサポート [ ] 評価、マイルストーン、アクティビティ、タスクの動的な作成をサポート [ ] メディアアセットの生成をサポート [ ] プロジェクトのコンテキストに基づいた動的なリソース/ツール/プロンプトの選択
特徴
- MCP の Server-Sent Events (SSE) トランスポート
- AWS Lambda デプロイメントサポート
- Practera API との GraphQL 統合
- 地域固有のエンドポイント
- APIキー認証
- 安全なアクセスのためのOAuth 2.1サポート
前提条件
- Node.js 18歳以上
- npm
- AWS アカウント(デプロイ用)
- Practera APIキー
- OAuth クライアント資格情報 (OAuth 認証用)
インストール
- このリポジトリをクローンする
- 依存関係をインストールします:
地域開発
- 開発モードでサーバーを起動します。
- サーバーは
http://localhost:3000/sse
で利用できます。 - OAuthエンドポイントは
http://localhost:3000/oauth/*
からアクセスできます。
建てる
デプロイメント用にプロジェクトをビルドするには:
AWS Lambdaへのデプロイ
- AWS CLIがインストールされ、設定されていることを確認してください。
- OAuth 構成パラメータを設定します。
- Serverless Framework を使用してデプロイします。
認証方法
APIキー認証
シンプルな統合のために、以下を提供することで API キー認証を使用できます。
- 各ツール呼び出しの
apikey
パラメータ - Practera地域を指定するための
region
パラメータ
OAuth 2.1 認証(近日公開予定)
サーバーは、安全な認証フローのために OAuth 2.1 もサポートしています。
- 認証のためにユーザーを
/oauth/authorize
にリダイレクトする /oauth/token
で認証コードをアクセストークンと交換します。- ベアラートークンを使用してMCPサーバーのエンドポイントにアクセスする
- 必要に応じて
/oauth/revoke
でトークンを取り消します
利用可能なMCPツール
このサーバーは次の MCP ツールを公開します。
mcp_practera_get_project
- Practera プロジェクトの詳細を取得するmcp_practera_get_assessment
- Practera 評価の詳細を取得する
MCP クライアント構成
MCP クライアントからこの MCP サーバーに接続する場合は、次の情報を提供する必要があります。
- Practera 認証用の API キー (API キー認証を使用している場合)
- Practera API のリージョン (米国、オーストラリア、EUK、または p2-stage)
- OAuth 構成 (OAuth 認証を使用する場合)
クロードデスクトップの構成例
使用例(クロード氏と)
Claude に、MCP ツールを使用して Practera データを操作するよう依頼できます。
次に、Claude はmcp_practera_get_project
ツールを使用して、構成から API キーとリージョンを提供します。
ライセンス
MITライセンス
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
AI モデルが Practera の GraphQL API にクエリを実行して学習データを取得できるようにする統合サーバー。これにより、LLM は教育プロジェクトや評価を分析および操作できるようになります。
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -7331MIT License
- -securityFlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -9TypeScript
- -securityFlicense-qualityAn integration server that enables AI assistants like Claude or Cursor to access and interact with strateegia projects through the strateegia API.Last updated -8TypeScript
- -security-license-qualityA Model Context Protocol server that enables AI agents to dynamically interact with Hasura GraphQL endpoints through natural language, supporting schema discovery, data querying/manipulation, and aggregations.Last updated -1TypeScript