AIカスタマーサポートボット - MCPサーバー
Cursor AI と Glama.ai の統合を使用して AI を活用した顧客サポートを提供する Model Context Protocol (MCP) サーバー。
特徴
Glama.aiからのリアルタイムコンテキスト取得
Cursor AI による AI を活用した応答生成
バッチ処理のサポート
優先キューイング
レート制限
ユーザーインタラクションの追跡
健康モニタリング
MCPプロトコル準拠
Related MCP server: MCP Starter
前提条件
Python 3.8以上
PostgreSQLデータベース
Glama.ai APIキー
カーソルAI APIキー
インストール
リポジトリをクローンします。
仮想環境を作成してアクティブ化します。
依存関係をインストールします:
.env.exampleに基づいて.envファイルを作成します。
資格情報を使用して
.envファイルを構成します。
データベースを設定します。
サーバーの実行
サーバーを起動します。
サーバーはhttp://localhost:8000で利用可能になります。
APIエンドポイント
1. ルートエンドポイント
基本的なサーバー情報を返します。
2. MCPバージョン
サポートされている MCP プロトコル バージョンを返します。
3. 機能
サーバーの機能とサポートされている機能を返します。
4. プロセスリクエスト
コンテキストを使用して単一のクエリを処理します。
リクエストの例:
5. バッチ処理
1 回のリクエストで複数のクエリを処理します。
リクエストの例:
6. 健康チェック
サーバーの健全性とサービスの状態を確認します。
レート制限
サーバーは、次のデフォルトでレート制限を実装します。
60秒あたり100リクエスト
レート制限情報はヘルスチェックエンドポイントに含まれています
レート制限超過応答にはリセット時間が含まれます
エラー処理
サーバーは次の形式で構造化されたエラー応答を返します。
一般的なエラーコード:
RATE_LIMIT_EXCEEDED: レート制限を超えましたUNSUPPORTED_MCP_VERSION: サポートされていないMCPバージョンPROCESSING_ERROR: リクエスト処理エラーCONTEXT_FETCH_ERROR: Glama.ai からコンテキストを取得中にエラーが発生しましたBATCH_PROCESSING_ERROR: バッチリクエストの処理中にエラーが発生しました
発達
プロジェクト構造
新機能の追加
新しい設定オプションで
mcp_config.pyを更新します必要に応じて
models.pyに新しいモデルを追加します。app.pyに新しいエンドポイントを作成する新しい機能を反映するために機能エンドポイントを更新します
安全
すべてのMCPエンドポイントは
X-MCP-Authヘッダーによる認証を必要とする不正使用を防ぐためにレート制限が実装されています
データベースの資格情報は安全に保管する必要がある
APIキーはバージョン管理にコミットしてはならない
監視
サーバーは監視用のヘルスチェック エンドポイントを提供します。
サービスステータス
レート制限の使用
コネクテッドサービス
処理時間
貢献
リポジトリをフォークする
機能ブランチを作成する
変更をコミットする
ブランチにプッシュする
プルリクエストを作成する
認証バッジ
ライセンス
このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細についてはLICENSEファイルを参照してください。
サポート
サポートについては、リポジトリに問題を作成するか、開発チームにお問い合わせください。