Integrations
Uses FastAPI to create a REST API server that handles requests for managing conversation context and interacting with language models.
Integrates with Google Gemini API to enable context-aware conversations with the language model, allowing the system to maintain conversation history across multiple requests.
MCP: モデルコンテキストプロトコル
プロジェクトの説明
MCP (モデル コンテキスト プロトコル) は、言語モデル (LLM) と対話するときにコンテキストを管理するためのシステムです。システムにより、リクエスト間の対話のコンテキストを保存できるため、言語モデルは以前の対話を「記憶」できるようになります。
特徴
- リクエスト間のコンテキストの維持と管理
- Google Gemini APIとの統合
- 複数の独立したセッションを使用する可能性
- 識別子を使用してセッションを切り替える
- ダイアログ履歴のローカル保存
テクノロジー
- Python 3
- ファストAPI
- ジェミニAPI
- ウビコーン
インストール
- リポジトリのクローン:
Copy
- 仮想環境を作成してアクティブ化します。
Copy
- 依存関係をインストールします:
Copy
.env
ファイルを作成し、API キーを追加します。
Copy
使用法
サーバーの起動
Copy
サーバーは次の場所で利用できます: http://localhost:9999
クライアントの使用
リクエストを送信します(新しいセッションが作成されます):
Copy
同じセッションで対話を続けます。
Copy
ID で特定のセッションを使用する:
Copy
すべてのセッションのリストを表示:
Copy
プロジェクト構造
mcp_server.py
- メイン MCP サーバーmcp_client.py
- サーバーとのやり取りのためのクライアントrequirements.txt
- プロジェクトの依存関係
ライセンス
マサチューセッツ工科大学
著者
アレックス・レプリケーター - alex.replicator@gmail.com
This server cannot be installed
言語モデルのインタラクションのコンテキストを管理するシステム。これにより、モデルは Gemini API を使用して複数の独立したセッションにわたる以前のインタラクションを記憶できるようになります。