Customized MCP Server

Integrations

  • Integrates with OpenAI's API to provide LLM capabilities that can be queried through the MCP server, allowing for tools like weather information retrieval to be called via the client interface.

カスタマイズされたMCPプロジェクト

このプロジェクトは、CLI サポート付きのmcpライブラリを活用し、OpenAI の API と統合します。

要件

プロジェクトを実行する前に、必要な依存関係を必ずインストールしてください。

pip install -r requirements.txt

使用法

  1. OpenAI API キーを環境変数として設定します。
    export OPENAI_API_KEY="your-api-key"
  2. MCP サーバーを起動します。
    python server.py
  3. クライアントを使用してサーバーと対話します。
    python client.py
  4. あるいは、オーケストレーターを使用して LLM とツールをクエリします。
    python main.py

天気ツールのクエリ

クライアントを実行し、 get_weatherツールを呼び出します。

python client.py

やり取りの例:

You: List tools Assistant: { "tools": [ { "name": "get_weather", "description": "Get weather for a city", "parameters": { "city": { "type": "string", "description": "Name of the city" } } } ] } You: Call get_weather with {"city": "Beijing"} Assistant: 北京的天气是晴天

依存関係

  • openai==1.70.0
  • mcp[cli]==1.6.0

ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています。

-
security - not tested
A
license - permissive license
-
quality - not tested

MCP ライブラリを OpenAI の API と統合し、ユーザーが自然言語クエリを通じて天気ツールなどのさまざまなツールと対話できるようにするサーバー。

  1. Requirements
    1. Usage
      1. Example
        1. Querying the Weather Tool
      2. Dependencies
        1. License
          ID: b4nj5l9ncf