agentdesk-mcp
AgentDesk MCP — 敵対的AIレビュー
AIパイプラインのための品質管理 — 単一のMCPツール。Claude Code、Claude Desktop、およびあらゆるMCPクライアントで動作します。
チームの29.5%がAI出力の評価を全く行っていません。 (LangChain調査) ナレッジワーカーは週に4.3時間をAI出力の事実確認に費やしています。 (Microsoft 2025)
AgentDesk MCPがこれを解決します。あらゆるAIパイプラインに、30秒で独立した敵対的レビューを追加できます。
クイックスタート
npm (推奨)
npx @ezark-publish/agentdesk-mcpClaude Code
claude mcp add agentdesk-mcp -- npx @ezark-publish/agentdesk-mcpClaude Desktop
{
"mcpServers": {
"agentdesk-mcp": {
"command": "npx",
"args": ["-y", "@ezark-publish/agentdesk-mcp"],
"env": { "ANTHROPIC_API_KEY": "sk-ant-..." }
}
}
}HTTPトランスポート (ストリーミングHTTP)
リモートアクセス、Smitheryホスティング、またはマルチクライアント設定のためにHTTPサーバーとして実行します:
# Start with HTTP transport on port 3100
MCP_HTTP_PORT=3100 npx @ezark-publish/agentdesk-mcp
# Or use the --http flag (defaults to port 3100)
npx @ezark-publish/agentdesk-mcp --httpMCPエンドポイント: POST http://localhost:3100/mcp
ヘルスチェック: GET http://localhost:3100/health
GitHubからインストール (代替)
npm install github:Rih0z/agentdesk-mcp要件
ANTHROPIC_API_KEY環境変数 (独自のキーを使用 — BYOK)
ツール
review_output
AIが生成したあらゆる出力に対する敵対的品質レビュー。独立したレビュアーが作成者にミスがあることを前提として、積極的に問題を探します。
入力:
パラメータ | 必須 | 説明 |
| はい | レビュー対象のAI生成出力 |
| いいえ | カスタムレビュー基準 |
| いいえ | カテゴリ: |
| いいえ | レビュアーモデル (デフォルト: |
出力:
{
"verdict": "PASS | FAIL | CONDITIONAL_PASS",
"score": 82,
"issues": [
{
"severity": "high",
"category": "accuracy",
"description": "Claim about X is unsupported",
"suggestion": "Add citation or remove claim"
}
],
"checklist": [
{
"item": "Factual accuracy",
"status": "pass",
"evidence": "All statistics match cited sources"
}
],
"summary": "Overall assessment...",
"reviewer_model": "claude-sonnet-4-6"
}review_dual
二重敵対的レビュー — 2人の独立したレビュアーが異なる視点から出力を評価し、マージエージェントが結果を統合します。
どちらか一方のレビュアーが重大な問題を発見した場合 → 統合判定は FAIL となります
低い方のスコアを採用します
すべての問題を統合し、重複を排除します
品質が極めて重要な高リスクの出力に使用してください。
パラメータは review_output と同じです。
仕組み
敵対的プロンプト: レビュアーはミスがあることを前提とするよう指示されます。疑わしきは罰する姿勢です。
証拠に基づくチェックリスト: すべての PASS 項目には具体的な証拠が必要です。証拠のない項目は自動的に FAIL に格下げされます。
不正防止バリデーション: チェックリスト項目の30%以上に証拠がない場合、レビュー全体が強制的に FAIL となり、スコアは最大50に制限されます。
構造化された出力: 判定 + 数値スコア + カテゴリ化された問題 + チェックリスト (単なる「良さそう」という評価ではありません)。
ユースケース
コードレビュー: バグ、セキュリティ問題、パフォーマンス問題のチェック
コンテンツレビュー: 正確性、読みやすさ、SEO、ターゲット適合性の検証
事実確認: AI生成テキスト内の主張の妥当性検証
翻訳品質: 正確さと自然さのチェック
データ抽出: 完全性と正確性の検証
あらゆるAI出力: 要約、レポート、提案書、メールなど
なぜ同じAIにレビューさせないのか?
自己レビューには体系的な寛容バイアスがあります。自身の出力をレビューするLLMは、エラーを生み出したのと同じ盲点を共有しています。研究によると、モデルはハルシネーション(幻覚)を起こしている時ほど、自信に満ちた言語を使用する傾向が34%高いことが示されています。
AgentDeskは、敵対的プロンプトを用いた別のレビュアーの呼び出しを使用しており、自己レビューとは根本的に異なります。
比較
機能 | AgentDesk MCP | 手動プロンプト | Braintrust | DeepEval |
ワンツール設定 | はい | いいえ | いいえ | いいえ |
敵対的レビュー | はい | DIY | いいえ | いいえ |
二重レビュアー | はい | DIY | いいえ | いいえ |
不正防止バリデーション | はい | いいえ | いいえ | いいえ |
SDK不要 | はい | はい | いいえ | いいえ |
MCPネイティブ | はい | いいえ | いいえ | いいえ |
制限事項
プロンプトインジェクション: すべての「LLM-as-judge(判定者としてのLLM)」システムと同様に、敵対的な入力がレビュアーの判定を操作しようとする可能性があります。不正防止バリデーション層は表面的な不正を緩和しますが、執拗な敵対的入力は依然として課題です。高リスクのユースケースでは、決定論的なバリデーションと組み合わせてください。
BYOKコスト:
review_outputの呼び出しごとに1回のLLM API呼び出しが発生し、review_dualでは3回発生します。これをパイプラインのコストに含めてください。
ホスト型API (別製品)
HTTP統合を好むチーム向けに、追加機能(エージェントマーケットプレイス、コンテキスト学習、ワークフロー)を備えたホスト型REST APIを agentdesk.usedevtools.com で提供しています。
開発
git clone https://github.com/Rih0z/agentdesk-mcp.git
cd agentdesk-mcp
npm install
npm test # 35 tests
npm run buildライセンス
MIT
Built by EZARK Consulting | Web Version
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Rih0z/agentdesk-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server