mcp-server-dify
Dify AI用モデルコンテキストプロトコルサーバー。このサーバーにより、LLMは標準化されたプロトコルを介してDify AIのチャット補完機能と対話できるようになります。
特徴
Dify AIチャット補完APIとの統合
レストランおすすめツール(めしどこ)
会話コンテキストのサポート
ストリーミングレスポンスのサポート
TypeScript実装
Related MCP server: MCP Perplexity Search
インストール
Dockerの使用
# Build the Docker image
make docker
# Run with Docker
docker run -i --rm mcp/dify https://your-dify-api-endpoint your-dify-api-key使用法
クロード・デスクトップ
claude_desktop_config.jsonに次の構成を追加します。
{
"mcpServers": {
"dify": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-dify",
"https://your-dify-api-endpoint",
"your-dify-api-key"
]
}
}
}your-dify-api-endpointとyour-dify-api-key実際の Dify API 資格情報に置き換えます。
ツール
めし処
Dify AI と連携したレストラン推奨ツール:
パラメータ:
LOCATION(文字列): レストランの場所BUDGET(文字列): 予算制約query(文字列): Dify AIに送信するクエリconversation_id(文字列、オプション):チャットのコンテキストを維持するため
発達
# Initial setup
make setup
# Build the project
make build
# Format code
make format
# Run linter
make lintライセンス
このプロジェクトはMIT ライセンスの下でリリースされています。
安全
このサーバーは、提供されたAPIキーを使用してDify AIと通信します。以下の点にご注意ください。
API認証情報を安全に保つ
APIエンドポイントにHTTPSを使用する
APIキーをバージョン管理にコミットしない
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。