mcp-server-dify
Dify AI用モデルコンテキストプロトコルサーバー。このサーバーにより、LLMは標準化されたプロトコルを介してDify AIのチャット補完機能と対話できるようになります。
特徴
Dify AIチャット補完APIとの統合
レストランおすすめツール(めしどこ)
会話コンテキストのサポート
ストリーミングレスポンスのサポート
TypeScript実装
Related MCP server: MCP Perplexity Search
インストール
Dockerの使用
使用法
クロード・デスクトップ
claude_desktop_config.jsonに次の構成を追加します。
your-dify-api-endpointとyour-dify-api-key実際の Dify API 資格情報に置き換えます。
ツール
めし処
Dify AI と連携したレストラン推奨ツール:
パラメータ:
LOCATION(文字列): レストランの場所BUDGET(文字列): 予算制約query(文字列): Dify AIに送信するクエリconversation_id(文字列、オプション):チャットのコンテキストを維持するため
発達
ライセンス
このプロジェクトはMIT ライセンスの下でリリースされています。
安全
このサーバーは、提供されたAPIキーを使用してDify AIと通信します。以下の点にご注意ください。
API認証情報を安全に保つ
APIエンドポイントにHTTPSを使用する
APIキーをバージョン管理にコミットしない
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。