Skip to main content
Glama

MCP Server for Dify AI

mcp-server-dify

Dify AI用モデルコンテキストプロトコルサーバー。このサーバーにより、LLMは標準化されたプロトコルを介してDify AIのチャット補完機能と対話できるようになります。

特徴

  • Dify AIチャット補完APIとの統合
  • レストランおすすめツール(めしどこ)
  • 会話コンテキストのサポート
  • ストリーミングレスポンスのサポート
  • TypeScript実装

インストール

Dockerの使用

# Build the Docker image make docker # Run with Docker docker run -i --rm mcp/dify https://your-dify-api-endpoint your-dify-api-key

使用法

クロード・デスクトップ

claude_desktop_config.jsonに次の構成を追加します。

{ "mcpServers": { "dify": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-dify", "https://your-dify-api-endpoint", "your-dify-api-key" ] } } }

your-dify-api-endpointyour-dify-api-key実際の Dify API 資格情報に置き換えます。

ツール

めし処

Dify AI と連携したレストラン推奨ツール:

パラメータ:

  • LOCATION (文字列): レストランの場所
  • BUDGET (文字列): 予算制約
  • query (文字列): Dify AIに送信するクエリ
  • conversation_id (文字列、オプション):チャットのコンテキストを維持するため

発達

# Initial setup make setup # Build the project make build # Format code make format # Run linter make lint

ライセンス

このプロジェクトはMIT ライセンスの下でリリースされています。

安全

このサーバーは、提供されたAPIキーを使用してDify AIと通信します。以下の点にご注意ください。

  • API認証情報を安全に保つ
  • APIエンドポイントにHTTPSを使用する
  • APIキーをバージョン管理にコミットしない

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

LLM が会話コンテキストのサポートやレストラン推奨ツールなどを含む Dify AI のチャット完了 API と対話できるようにします。

  1. 特徴
    1. インストール
      1. Dockerの使用
    2. 使用法
      1. クロード・デスクトップ
      2. ツール
    3. 発達
      1. ライセンス
        1. 安全
          1. 貢献

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Enables LLMs to interact with Discord channels by sending and reading messages through Discord's API, with a focus on maintaining user control and security.
              Last updated -
              33
              TypeScript
              • Apple
            • A
              security
              A
              license
              A
              quality
              Enables integration of Perplexity's AI API with LLMs, delivering advanced chat completion by utilizing specialized prompt templates for tasks like technical documentation, code review, and API documentation.
              Last updated -
              1
              94
              8
              JavaScript
              MIT License
              • Linux
            • A
              security
              F
              license
              A
              quality
              Provides access to Intercom conversations and chats through the Model Context Protocol, allowing LLMs to query and analyze Intercom conversations with various filtering options.
              Last updated -
              2
              3
              TypeScript
              • Apple
            • A
              security
              A
              license
              A
              quality
              Enables AI models to interact with messages from various messaging platforms (Mobile, Mail, WhatsApp, LinkedIn, Slack, Twitter, Telegram, Instagram, Messenger) through a standardized interface.
              Last updated -
              3
              8
              Python
              MIT License
              • Linux

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/yuru-sha/mcp-server-dify'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server