Skip to main content
Glama

unichat-ts-mcp-server

TypeScript での Unichat MCP サーバー

Pythonでも利用可能

ツールまたは事前定義されたプロンプトを介して、MCPプロトコルを使用してOpenAI、MistralAI、Anthropic、xAI、Google AI、またはDeepSeekにリクエストを送信します。ベンダーAPIキーが必要です。

STDIO と SSE の両方のトランスポート メカニズムが引数を介してサポートされます。

ツール

サーバーは 1 つのツールを実装します。

  • unichat : unichatにリクエストを送信する
    • 必須の文字列引数として「messages」を受け取ります
    • 応答を返す

プロンプト

  • code_review
    • ベストプラクティス、潜在的な問題、改善点についてコードをレビューする
    • 引数:
      • code (文字列、必須): レビューするコード
  • document_code
    • docstring やコメントを含むコードのドキュメントを生成する
    • 引数:
      • code (文字列、必須): コメントするコード
  • explain_code
    • コードがどのように動作するかを詳しく説明する
    • 引数:
      • code (文字列、必須): 説明するコード
  • code_rework
    • 提供されたコードに要求された変更を適用する
    • 引数:
      • changes (文字列、オプション): 適用する変更
      • code (文字列、必須): 再作業するコード

発達

依存関係をインストールします:

npm install

サーバーを構築します。

npm run build

自動リビルドを使用した開発の場合:

npm run watch

評価の実行

evalsパッケージはmcpクライアントをロードし、index.tsファイルを実行するため、テスト間でリビルドする必要はありません。npxコマンドの先頭に環境変数をロードすることもできます。完全なドキュメントはこちらでご覧いただけます。

OPENAI_API_KEY=your-key npx mcp-eval src/evals/evals.ts src/server.ts

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Unichat MCP Server を自動的にインストールするには:

npx -y @smithery/cli install unichat-ts-mcp-server --client claude

手動でインストールする

Claude Desktop で使用するには、サーバー設定を追加します。

MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

ローカルで実行:

{ "mcpServers": { "unichat-ts-mcp-server": { "command": "node", "args": [ "{{/path/to}}/unichat-ts-mcp-server/build/index.js" ], "env": { "UNICHAT_MODEL": "YOUR_PREFERRED_MODEL_NAME", "UNICHAT_API_KEY": "YOUR_VENDOR_API_KEY" } } }

公開された実行:

{ "mcpServers": { "unichat-ts-mcp-server": { "command": "npx", "args": [ "-y", "unichat-ts-mcp-server" ], "env": { "UNICHAT_MODEL": "YOUR_PREFERRED_MODEL_NAME", "UNICHAT_API_KEY": "YOUR_VENDOR_API_KEY" } } }

デフォルトではSTDIOで実行されますが、引数--stdio指定するとSSEで実行されます。SSEで実行するには引数--sseを追加します。

npx -y unichat-ts-mcp-server --sse

対応モデル:

"YOUR_PREFERRED_MODEL_NAME"として使用できる現在サポートされているモデルのリストは、こちらでご覧いただけます。関連するベンダーAPIキーを"YOUR_VENDOR_API_KEY"として追加してください。

例:

"env": { "UNICHAT_MODEL": "gpt-4o-mini", "UNICHAT_API_KEY": "YOUR_OPENAI_API_KEY" }

デバッグ

MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。パッケージスクリプトとして提供されているMCP Inspectorの使用をお勧めします。

npm run inspector

インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。

SSE モードでテスト中にタイムアウトが発生した場合は、インスペクター インターフェースのリクエスト URL を次のように変更します: http://localhost:3001/sse?timeout=600000

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Tools

ツールまたは事前定義されたプロンプトを介して、MCPプロトコルを使用してOpenAI、MistralAI、Anthropic、xAI、またはGoogle AIにリクエストを送信します。ベンダーAPIキーが必要です。

STDIO と SSE の両方のトランスポート メカニズムが引数を介してサポートされます。

  1. Pythonでも利用可能
    1. ツール
    2. プロンプト
  2. 発達
    1. 評価の実行
      1. インストール
        1. Smithery経由でインストール
        2. 手動でインストールする
        3. デバッグ

      Related MCP Servers

      • A
        security
        A
        license
        A
        quality
        Send requests to OpenAI, MistralAI, Anthropic, xAI, or Google AI using MCP protocol via tool or predefined prompts. Vendor API key required
        Last updated -
        1
        34
        Python
        MIT License
        • Apple
      • -
        security
        A
        license
        -
        quality
        A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
        Last updated -
        26
        Python
        MIT License
        • Apple
      • A
        security
        A
        license
        A
        quality
        Enables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.
        Last updated -
        1
        1
        Python
        MIT License
        • Apple
        • Linux
      • -
        security
        A
        license
        -
        quality
        A proxy server that bridges AI agents and external APIs by dynamically translating OpenAPI specifications into standardized MCP tools, enabling seamless interaction without custom integration code.
        Last updated -
        43
        Python
        MIT License
        • Linux
        • Apple

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/amidabuddha/unichat-ts-mcp-server'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server