MCP Server for ML Model Integration

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Integrates with a FastAPI hosted ML server to serve a trained Random Forest model for predictions and data processing.

  • Provides integration with GitHub repositories for cloning and accessing code resources needed for the MCP server setup.

  • Integrates with Imgur for image hosting used in the demonstration of the MCP server capabilities.

MCPサーバーを構築する

トレーニング済みのランダム フォレスト モデルを提供するための MCP サーバーを構築し、ReAct のインタラクションのために Bee Framework と統合する方法についての完全なチュートリアル。

ライブで動作を確認してください📺

MCP サーバーの起動 🚀

  1. このリポジトリをクローンしますgit clone https://github.com/nicknochnack/BuildMCPServer
  2. MCPサーバーを実行するには
    cd BuildMCPServer
    uv venv
    source .venv/bin/activate
    uv add .
    uv add ".[dev]"
    uv run mcp dev server.py
  3. エージェントを実行するには、別のターミナルで次のコマンドを実行します。
    source .venv/bin/activate
    uv run singleflowagent.py

FastAPIホスト型MLサーバーの起動

git clone https://github.com/nicknochnack/CodeThat-FastML
cd CodeThat-FastML
pip install -r requirements.txt
uvicorn mlapi:app --reload
作り方の詳しい説明はここでもご覧いただけます

その他の参考資料 🔗

  • MCP クライアントの構築 (シングルフロー エージェントで使用)
  • MLサーバーを構築するオリジナルビデオ

誰が、いつ、なぜ?

👨🏾‍💻 作者: Nick Renotte 📅 バージョン: 1.x 📜 ライセンス: このプロジェクトは MIT ライセンスの下でライセンスされています

-
security - not tested
F
license - not found
-
quality - not tested

トレーニング済みの Random Forest モデルを Bee Framework と統合し、AI ツールとエージェントの ReAct インタラクションを可能にするサーバー。

  1. See it live and in action 📺
    1. Startup MCP Server 🚀
      1. Startup FastAPI Hosted ML Server
        1. Other References 🔗 </br>
          1. Who, When, Why?
            ID: buf72euzzj