remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
mcp-jinaai-grounding
⚠️お知らせ
このリポジトリはメンテナンスされなくなりました。
このツールの機能は、複数の MCP ツールを 1 つの統合パッケージにまとめたmcp-omnisearchで利用できるようになりました。
代わりにmcp-omnisearchを使用してください。
Jina.aiのGrounding APIをLLMに統合するためのモデルコンテキストプロトコル(MCP)サーバー。このサーバーは、事実に基づいたリアルタイムのWebコンテンツでLLMのレスポンスを強化するために最適化された、効率的で包括的なWebコンテンツグラウンディング機能を提供します。
特徴
- 🌐 Jina.ai Grounding API による高度な Web コンテンツ グラウンディング
- 🚀 リアルタイムのコンテンツ検証とファクトチェック
- 📚 包括的なウェブコンテンツ分析
- 🔄 LLM向けに最適化されたクリーンなフォーマット
- 🎯 正確なコンテンツ関連性スコアリング
- 🏗️ モデルコンテキストプロトコルに基づいて構築
構成
このサーバーはMCPクライアント経由で設定する必要があります。以下に、様々な環境における設定例を示します。
傾斜構成
Cline MCP 設定に以下を追加します:
WSL 構成の Claude デスクトップ
WSL 環境の場合は、Claude Desktop 構成に以下を追加します。
環境変数
サーバーには次の環境変数が必要です。
JINAAI_API_KEY
: Jina.ai APIキー(必須)
API
サーバーは、LLM 応答を Web コンテンツにグラウンディングするための MCP ツールを実装します。
地面コンテンツ
Jina.ai Grounding を使用して、リアルタイムの Web コンテンツで LLM 応答をグラウンドします。
パラメータ:
query
(文字列、必須): Webコンテンツに表示するテキストno_cache
(ブール値、オプション): 最新の結果を得るためにキャッシュをバイパスします。デフォルトはfalseです。format
(文字列, オプション): レスポンスのフォーマット ("json" または "text")。デフォルトは "text"token_budget
(数値、オプション): このリクエストのトークンの最大数browser_locale
(文字列、オプション): コンテンツをレンダリングするためのブラウザのロケールstream
(boolean, オプション): ラージページのストリームモードを有効にします。デフォルトは falsegather_links
(ブール値、オプション):レスポンスの最後にすべてのリンクを収集します。デフォルトはfalseです。gather_images
(ブール値、オプション): レスポンスの最後にすべての画像を収集します。デフォルトはfalseです。image_caption
(ブール値、オプション):コンテンツ内のキャプション画像。デフォルトはfalseenable_iframe
(ブール値、オプション): iframeからコンテンツを抽出します。デフォルトはfalseです。enable_shadow_dom
(boolean, オプション): Shadow DOMからコンテンツを抽出します。デフォルトはfalseです。resolve_redirects
(ブール値、オプション): 最終URLへのリダイレクトチェーンをたどります。デフォルトはtrueです。
発達
設定
- リポジトリをクローンする
- 依存関係をインストールします:
- プロジェクトをビルドします。
- 開発モードで実行:
出版
- package.json のバージョンを更新する
- プロジェクトをビルドします。
- npm に公開:
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
ライセンス
MIT ライセンス - 詳細についてはLICENSEファイルを参照してください。
謝辞
- モデルコンテキストプロトコルに基づいて構築
- Jina.ai Grounding APIを搭載
You must be authenticated.
Tools
Jina.ai の Grounding API を LLM と統合して、リアルタイムで事実に基づいた Web コンテンツのグラウンディングと分析を実現し、正確で検証済みの情報で LLM 応答を強化します。