Skip to main content
Glama
flamekk

MCP Streamable HTTP Demo

by flamekk

TP5 MCP Streamable HTTP デモ

このプロジェクトは、以下のデモ目的を再現します。

  • 2つのツールを公開する MCP サーバー。

  • @modelcontextprotocol/inspector によるテスト。

  • Streamable HTTP 経由で MCP を使用する LangChain/LangGraph 互換エージェント。

  • Streamable HTTP 経由で MCP を使用する n8n AI エージェントのセットアップ。

重要なセキュリティ上の注意

プロンプトに貼り付けられた OpenAI キーがチャットで公開されました。エージェントを実行する前に、そのキーを無効化し、新しいキーを作成してください。新しいキーは .env に記述し、コミットしないでください。

セットアップ

Copy-Item .env.example .env
npm install

.env を編集し、以下を設定します。

OPENAI_API_KEY=your_new_key

MCP サーバーの起動

npm run server

MCP エンドポイントは以下の通りです。

http://127.0.0.1:3000/mcp

ヘルスチェックエンドポイントは以下の通りです。

http://127.0.0.1:3000/health

MCP Inspector によるテスト

1つのターミナルでサーバーを実行し続けます。

npm run server

別のターミナルで、Inspector CLI を使用してツールを一覧表示します。

npm run inspector:list-tools

Windows では、現在の Inspector CLI は正しい JSON レスポンスを出力した後に Node/libuv のアサーションで終了する場合があります。calculatetext_stats を含む tools JSON が表示されていれば、MCP 呼び出し自体は成功しています。

Inspector CLI でツールを呼び出します。

npx --yes @modelcontextprotocol/inspector --cli http://127.0.0.1:3000/mcp --transport http --method tools/call --tool-name calculate --tool-arg operation=add --tool-arg "numbers=[2,3,4]"

Inspector UI を開くこともできます。

npm run inspector

次に、以下を選択します。

Transport: Streamable HTTP
URL: http://127.0.0.1:3000/mcp

ローカルスモークテスト

npm run smoke

これにより、MCP ツールが一覧表示され、calculate が呼び出されます。

LangChain エージェント

サーバーが実行されており、.env に有効で更新された OPENAI_API_KEY が含まれていることを確認してください。

npm run agent

カスタムプロンプト:

npm run agent -- "Calcule 42 / 6 puis analyse le texte: Bonjour depuis MCP."

n8n エージェント

docs/n8n-agent.md に従ってください。

n8n MCP クライアントツールの設定は以下の通りです。

Endpoint: http://127.0.0.1:3000/mcp
Server Transport: HTTP Streamable
Authentication: None
Tools to Include: All
F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/flamekk/Model-Context-Protocol'

If you have feedback or need assistance with the MCP directory API, please join our Discord server