Skip to main content
Glama
teelaitila

Deep Research MCP Server

by teelaitila

ディープリサーチMCPサーバーを開く

AIを搭載したリサーチアシスタントは、あらゆるトピックについて深く反復的なリサーチを実行します。検索エンジン、ウェブスクレイピング、AIを組み合わせ、トピックを深く掘り下げて包括的なレポートを生成します。モデルコンテキストプロトコル(MCP)ツールまたはスタンドアロンのCLIとしてご利用いただけます。レポートの外観については、exampleout.mdをご覧ください。

クイックスタート

  1. クローンしてインストール:

git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
  1. .env.localで環境を設定します。

# Copy the example environment file
cp .env.example .env.local
  1. 建てる:

# Build the server
npm run build
  1. cli バージョンを実行します:

npm run start "Your research query here"
  1. Claude Desktop で MCP サーバーをテストします。
    サーバー クイックスタートの下部にあるガイドに従って、サーバーを Claude Desktop に追加します。
    https://modelcontextprotocol.io/quickstart/server

Related MCP server: Octagon Deep Research MCP

特徴

  • ターゲットを絞った検索クエリを生成して、深く反復的な調査を実行します。

  • 深さ(深さ)と幅(広さ)のパラメータで研究範囲を制御する

  • 詳細なスコア(0~1)と推論で情報源の信頼性を評価する

  • 信頼性の高い情報源(0.7以上)を優先し、信頼性の低い情報を検証する

  • 研究ニーズをより深く理解するためにフォローアップの質問を生成する

  • 調査結果、ソース、信頼性評価を含む詳細なマークダウンレポートを作成します

  • AIエージェント用のモデルコンテキストプロトコル(MCP)ツールとして利用可能

  • 現時点ではMCPバージョンではフォローアップの質問は行われません

仕組み

flowchart TB
    subgraph Input
        Q[User Query]
        B[Breadth Parameter]
        D[Depth Parameter]
        FQ[Feedback Questions]
    end

    subgraph Research[Deep Research]
        direction TB
        SQ[Generate SERP Queries]
        SR[Search]
        RE[Source Reliability Evaluation]
        PR[Process Results]
    end

    subgraph Results[Research Output]
        direction TB
        L((Learnings with
        Reliability Scores))
        SM((Source Metadata))
        ND((Next Directions:
        Prior Goals,
        New Questions))
    end

    %% Main Flow
    Q & FQ --> CQ[Combined Query]
    CQ & B & D --> SQ
    SQ --> SR
    SR --> RE
    RE --> PR

    %% Results Flow
    PR --> L
    PR --> SM
    PR --> ND

    %% Depth Decision and Recursion
    L & ND --> DP{depth > 0?}
    DP -->|Yes| SQ
    
    %% Final Output
    DP -->|No| MR[Markdown Report]

    %% Styling
    classDef input fill:#7bed9f,stroke:#2ed573,color:black
    classDef process fill:#70a1ff,stroke:#1e90ff,color:black
    classDef output fill:#ff4757,stroke:#ff6b81,color:black
    classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px

    class Q,B,D,FQ input
    class SQ,SR,RE,PR process
    class MR output
    class L,SM,ND results

詳細設定

Local Firecrawl の使用(無料オプション)

Firecrawl APIを使用する代わりに、ローカルインスタンスを実行することもできます。searchapiキーの使用を避けるため、公式リポジトリまたは検索バックエンドとしてsearXNGを使用する私のフォークを使用してください。

  1. ローカル Firecrawl をセットアップします。

git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# Follow setup in localfirecrawl README
  1. .env.localを更新します:

FIRECRAWL_BASE_URL="http://localhost:3002"

オプション: 可観測性

Langfuse を使用して、研究フロー、クエリ、結果を追跡するための可観測性を追加します。

# Add to .env.local
LANGFUSE_PUBLIC_KEY="your_langfuse_public_key"
LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

Langfuse キーが提供されていない場合、アプリは観測可能性なしで正常に動作します。

ライセンス

MITライセンス

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/teelaitila/deep-research-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server