このプロジェクトは、 MCPプロトコルを介してローカルLLM(例:Qwen)を電卓やナレッジベースなどのツールに接続します。アシスタントはこれらのツールを自動的に検出して呼び出し、ユーザーのクエリに回答します。
📦 機能
🔧 MCP サーバーを介したツール実行
🧠 HTTP または OpenAI SDK 経由のローカル LLM 統合
📚 ナレッジベースのサポート (
data.json)⚡
stdioおよびsseトランスポートをサポート
Related MCP server: MCP Documentation Server
🗂 プロジェクトファイル
ファイル | 説明 |
| ツールを登録し、MCP サーバーを起動します |
|
を使用してローカル LLM と通信します |
| LLM + ツール呼び出しロジックに OpenAI 互換の SDK を使用 |
| stdio を使用する MCP クライアント |
| SSEを使用したMCPクライアント |
| Q&Aナレッジベース |
📥 インストール
要件
Python 3.8以上
依存関係をインストールします:
requirements.txt
🚀 はじめに
1. MCPサーバーを実行する
これにより、 add 、 multiply 、 get_knowledge_baseなどの関数を含むツール サーバーが起動します。
2. クライアントを開始する
オプション A: HTTP クライアント (生の API 経由のローカル LLM)
オプションB: OpenAI SDKクライアント
オプションC: stdioトランスポート
オプションD: SSEトランスポート
server.pyが以下を設定していることを確認します。
次に以下を実行します:
💬 プロンプトの例
数学ツールの呼び出し
応答:
ナレッジベースの質問
応答には、 data.jsonからの関連する回答が含まれます。
📁 例: data.json
🔧 構成
client-http.pyまたはclientopenai.py内で、以下を更新します。
LLM が OpenAI 互換の API エンドポイントを提供していることを確認します。
🧹 クリーンアップ
クライアントはツールの呼び出しと応答を自動的に処理します。Ctrl Ctrl+Cでサーバーまたはクライアントを停止できます。
🪪 ライセンス
MITライセンス。LICENSEファイルを参照してください。