Skip to main content
Glama

TypeScript での Unichat MCP サーバー

Pythonでも利用可能

ツールまたは事前定義されたプロンプトを介して、MCPプロトコルを使用してOpenAI、MistralAI、Anthropic、xAI、Google AI、またはDeepSeekにリクエストを送信します。ベンダーAPIキーが必要です。

STDIO と SSE の両方のトランスポート メカニズムが引数を介してサポートされます。

ツール

サーバーは 1 つのツールを実装します。

  • unichat : unichatにリクエストを送信する

    • 必須の文字列引数として「messages」を受け取ります

    • 応答を返す

プロンプト

  • code_review

    • ベストプラクティス、潜在的な問題、改善点についてコードをレビューする

    • 引数:

      • code (文字列、必須): レビューするコード

  • document_code

    • docstring やコメントを含むコードのドキュメントを生成する

    • 引数:

      • code (文字列、必須): コメントするコード

  • explain_code

    • コードがどのように動作するかを詳しく説明する

    • 引数:

      • code (文字列、必須): 説明するコード

  • code_rework

    • 提供されたコードに要求された変更を適用する

    • 引数:

      • changes (文字列、オプション): 適用する変更

      • code (文字列、必須): 再作業するコード

発達

依存関係をインストールします:

npm install

サーバーを構築します。

npm run build

自動リビルドを使用した開発の場合:

npm run watch

評価の実行

evalsパッケージはmcpクライアントをロードし、index.tsファイルを実行するため、テスト間でリビルドする必要はありません。npxコマンドの先頭に環境変数をロードすることもできます。完全なドキュメントはこちらでご覧いただけます。

OPENAI_API_KEY=your-key npx mcp-eval src/evals/evals.ts src/server.ts

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Unichat MCP Server を自動的にインストールするには:

npx -y @smithery/cli install unichat-ts-mcp-server --client claude

手動でインストールする

Claude Desktop で使用するには、サーバー設定を追加します。

MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

ローカルで実行:

{ "mcpServers": { "unichat-ts-mcp-server": { "command": "node", "args": [ "{{/path/to}}/unichat-ts-mcp-server/build/index.js" ], "env": { "UNICHAT_MODEL": "YOUR_PREFERRED_MODEL_NAME", "UNICHAT_API_KEY": "YOUR_VENDOR_API_KEY" } } }

公開された実行:

{ "mcpServers": { "unichat-ts-mcp-server": { "command": "npx", "args": [ "-y", "unichat-ts-mcp-server" ], "env": { "UNICHAT_MODEL": "YOUR_PREFERRED_MODEL_NAME", "UNICHAT_API_KEY": "YOUR_VENDOR_API_KEY" } } }

デフォルトではSTDIOで実行されますが、引数--stdio指定するとSSEで実行されます。SSEで実行するには引数--sseを追加します。

npx -y unichat-ts-mcp-server --sse

対応モデル:

"YOUR_PREFERRED_MODEL_NAME"として使用できる現在サポートされているモデルのリストは、こちらでご覧いただけます。関連するベンダーAPIキーを"YOUR_VENDOR_API_KEY"として追加してください。

例:

"env": { "UNICHAT_MODEL": "gpt-4o-mini", "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY" }

デバッグ

MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。パッケージスクリプトとして提供されているMCP Inspectorの使用をお勧めします。

npm run inspector

インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。

SSE モードでテスト中にタイムアウトが発生した場合は、インスペクター インターフェースのリクエスト URL を次のように変更します: http://localhost:3001/sse?timeout=600000

-
security - not tested
-
license - not tested
-
quality - not tested

Related MCP Servers

  • A
    security
    -
    license
    A
    quality
    Send requests to OpenAI, MistralAI, Anthropic, xAI, or Google AI using MCP protocol via tool or predefined prompts. Vendor API key required
    Last updated -
    1
    37
    MIT License
    • Apple
  • -
    security
    -
    license
    -
    quality
    An auto-generated MCP server that enables interaction with the OpenAI API, allowing users to access OpenAI's models and capabilities through the Multi-Agent Conversation Protocol.
    Last updated -
  • -
    security
    -
    license
    -
    quality
    A service that converts OpenAPI specifications into MCP tools, enabling AI assistants to interact with your API endpoints through natural language.
    Last updated -
  • A
    security
    -
    license
    A
    quality
    An MCP server that retrieves and provides AI model information from OpenAI, Anthropic, and Google through a unified interface.
    Last updated -
    3
    32
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/amidabuddha/unichat-ts-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server