Skip to main content
Glama

eRegulations MCP Server

by unctad-ai

eRegulations MCP サーバー

eRegulations APIデータにアクセスするためのモデルコンテキストプロトコル(MCP)サーバー実装。このサーバーは、eRegulationsインスタンスへの構造化されたAIフレンドリーなアクセスを提供し、AIモデルが行政手続きに関するユーザーの質問に回答しやすくします。

特徴

  • 標準化されたプロトコルを通じてeRegulationsデータにアクセスする
  • 問い合わせの手順、ステップ、要件、およびコスト
  • LLM ツールの使用をガイドする MCP プロンプト テンプレート
  • 標準I/O接続を使用した合理化された実装

使用法

Dockerで実行(推奨)

サーバーを実行するには、GitHub Container Registry (GHCR) から公開されている Docker イメージを使用することをお勧めします。これにより、一貫性と分離性を確保した環境が確保されます。

# Pull the latest image (optional) docker pull ghcr.io/unctad-ai/eregulations-mcp-server:latest # Run the server, providing the target eRegulations API URL export EREGULATIONS_API_URL="https://your-eregulations-api.com" docker run -i --rm -e EREGULATIONS_API_URL ghcr.io/unctad-ai/eregulations-mcp-server

https://your-eregulations-api.com 、接続する eRegulations インスタンスの実際のベース URL (例: https://api-tanzania.tradeportal.org ) に置き換えます。

サーバーは標準入力で MCP JSON 要求をリッスンし、標準出力に応答を送信します。

クライアント構成の例

以下は、クライアント (Claude など) が Docker 経由でこのサーバーを使用するように構成する方法の例です。

{ "mcpServers": { "eregulations": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "EREGULATIONS_API_URL", "ghcr.io/unctad-ai/eregulations-mcp-server:latest" ], "env": { "EREGULATIONS_API_URL": "https://your-eregulations-api.com" } } } }

( envセクションのEREGULATIONS_API_URL値も置き換えることを忘れないでください。)

Smithery経由のインストール

あるいは、Smithery を使用してサーバーをインストールして実行することもできます。

インストール コマンドについては、 https://smithery.ai/server/@unctad-ai/eregulations-mcp-serverをご覧ください。

npm レジストリ経由のインストール (非推奨)

~~ npxを使用してサーバーを直接実行することは、環境の不整合が発生する可能性があるため非推奨です。~~

~~```バッシュ

非推奨: 環境変数を設定して npx で実行する

EREGULATIONS_API_URL= https://example.com/api をエクスポート && NODE_ENV=production をエクスポート && npx -y @unctad-ai/eregulations-mcp-server@latest をエクスポートします。

## Configuration The server requires the URL of the target eRegulations API. ### Environment Variables - `EREGULATIONS_API_URL`: **(Required)** URL of the eRegulations API to connect to (e.g., `https://api-tanzania.tradeportal.org`). Passed to the Docker container using the `-e` flag. ## Available Tools The MCP server provides the following tools: ### `listProcedures` Lists all available procedures in the eRegulations system. ### `getProcedureDetails` Gets detailed information about a specific procedure by its ID. Parameters: - `procedureId`: ID of the procedure to retrieve ### `getProcedureStep` Gets information about a specific step within a procedure. Parameters: - `procedureId`: ID of the procedure - `stepId`: ID of the step within the procedure ### `searchProcedures` Searches for procedures by keyword or phrase. Note: This currently searches related objectives based on the underlying API and may include results beyond direct procedure names. Parameters: - `keyword`: The keyword or phrase to search for ## Prompt Templates The server provides prompt templates to guide LLMs in using the available tools correctly. These templates explain the proper format and parameters for each tool. LLM clients that support the MCP prompt templates capability will automatically receive these templates to improve their ability to work with the API. ## Development ```bash # Run in development mode npm run start # Run tests npm test # Run tests with watch mode npm run test:watch # Run test client npm run test-client ```
Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

モデル コンテキスト プロトコル サーバーの実装により、構造化された AI フレンドリーな eRegulations データへのアクセスが可能になり、AI モデルが管理手順に関するユーザーの質問に簡単に回答できるようになります。

  1. 特徴
    1. 使用法
      1. Dockerで実行(推奨)
      2. クライアント構成の例
      3. Smithery経由のインストール
      4. npm レジストリ経由のインストール (非推奨)
    2. 非推奨: 環境変数を設定して npx で実行する
      1. Run in development mode
        1. Run tests
          1. Run tests with watch mode
            1. Run test client

              Related MCP Servers

              • -
                security
                F
                license
                -
                quality
                A Model Context Protocol server that provides AI assistants with structured access to your Logseq knowledge graph, enabling retrieval, searching, analysis, and creation of content within your personal knowledge base.
                Last updated -
                19
                TypeScript
                • Apple
              • -
                security
                F
                license
                -
                quality
                A demonstration implementation of the Model Context Protocol server that facilitates communication between AI models and external tools while maintaining context awareness.
                Last updated -
                Python
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                A comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.
                Last updated -
                16
                TypeScript
              • -
                security
                F
                license
                -
                quality
                A Model Context Protocol server that extends AI capabilities by providing file system access and management functionalities to Claude or other AI assistants.
                Last updated -
                3
                TypeScript
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/unctad-ai/eregulations-mcp-server'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server