ブラウザ用MCPサーバー
プロジェクトノート:このMCPサーバー実装は、ブラウザ使用/Web UIの基盤上に構築されています。コアブラウザ自動化ロジックと設定パターンは、元のプロジェクトから改変されています。
自然言語によるブラウザ制御用のモデル コンテキスト プロトコル (MCP) を実装した AI 駆動型ブラウザ自動化サーバー。
特徴
🧠 MCP 統合- AI エージェント通信のための完全なプロトコル実装
🌐ブラウザ自動化- ページナビゲーション、フォーム入力、要素の操作
👁️視覚的理解- スクリーンショット分析と視覚ベースのインタラクション
🔄状態の永続性- タスク間でブラウザセッションを維持する
🔌マルチ LLM サポート- OpenAI、Anthropic、Azure、DeepSeek の統合
Related MCP server: Cloudflare Playwright MCP
クイックスタート
前提条件
Python 3.11以上
uv (高速 Python パッケージ インストーラー)
Chrome/Chromiumブラウザ
インストール
クロードデスクトップ
MacOS の場合: ~/Library/Application\ Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json
"mcpServers": {
"browser-use": {
"command": "uvx",
"args": [
"mcp-server-browser-use",
],
"env": {
"OPENROUTER_API_KEY": "",
"OPENROUTER_ENDPOINT": "https://openrouter.ai/api/v1",
"OPENAI_ENDPOINT": "https://api.openai.com/v1",
"OPENAI_API_KEY": "",
"ANTHROPIC_ENDPOINT": "https://api.anthropic.com",
"ANTHROPIC_API_KEY": "",
"GOOGLE_API_KEY": "",
"AZURE_OPENAI_ENDPOINT": "",
"AZURE_OPENAI_API_KEY": "",
"DEEPSEEK_ENDPOINT": "https://api.deepseek.com",
"DEEPSEEK_API_KEY": "",
"MISTRAL_API_KEY": "",
"MISTRAL_ENDPOINT": "https://api.mistral.ai/v1",
"OLLAMA_ENDPOINT": "http://localhost:11434",
"ANONYMIZED_TELEMETRY": "true",
"BROWSER_USE_LOGGING_LEVEL": "info",
"CHROME_PATH": "",
"CHROME_USER_DATA": "",
"CHROME_DEBUGGING_PORT": "9222",
"CHROME_DEBUGGING_HOST": "localhost",
"CHROME_PERSISTENT_SESSION": "false",
"BROWSER_HEADLESS": "false",
"BROWSER_DISABLE_SECURITY": "false",
"BROWSER_WINDOW_WIDTH": "1280",
"BROWSER_WINDOW_HEIGHT": "720",
"BROWSER_TRACE_PATH": "trace.json",
"BROWSER_RECORDING_PATH": "recording.mp4",
"RESOLUTION": "1920x1080x24",
"RESOLUTION_WIDTH": "1920",
"RESOLUTION_HEIGHT": "1080",
"VNC_PASSWORD": "youvncpassword",
"MCP_MODEL_PROVIDER": "anthropic",
"MCP_MODEL_NAME": "claude-3-5-sonnet-20241022",
"MCP_TEMPERATURE": "0.3",
"MCP_MAX_STEPS": "30",
"MCP_USE_VISION": "true",
"MCP_MAX_ACTIONS_PER_STEP": "5",
"MCP_TOOL_CALL_IN_CONTENT": "true"
}
}地域開発
"browser-use": {
"command": "uv",
"args": [
"--directory",
"/path/to/mcp-browser-use",
"run",
"mcp-server-browser-use"
],
"env": {
...
}
}発達
# Install dev dependencies
uv sync
# Run with debugger
npx @modelcontextprotocol/inspector uv --directory . run mcp-server-browser-useトラブルシューティング
ブラウザの競合: 開始する前にすべての Chrome インスタンスを閉じます。
API エラー: 環境変数の API キーが LLM プロバイダーと一致していることを確認します。
ビジョン サポート: スクリーンショット分析のために
MCP_USE_VISION=trueことを確認します。
プロバイダー構成
サーバーは環境変数を通じて複数のLLMプロバイダーをサポートします。MCP_MODEL_PROVIDERで利用可能なオプションMCP_MODEL_PROVIDER以下のとおりです。
プロバイダー | 価値 | 必要な環境変数 |
人類学的 |
|
|
オープンAI |
|
|
Azure OpenAI |
|
|
ディープシーク |
|
|
ジェミニ |
|
|
ミストラル |
|
|
オラマ |
|
|
オープンルーター |
|
|
注記:
オプションとしてマークされたエンドポイントについては、指定されていない場合はデフォルト値が使用されます。
温度は
MCP_TEMPERATUREを使用して設定できます(デフォルト:0.3)モデルは
MCP_MODEL_NAMEを使用して指定できますOllamaモデルでは、
num_ctxやnum_predictなどの追加のコンテキスト設定が構成可能です。
クレジット
このプロジェクトは、MITライセンスに基づき、 browser-use/web-uiを拡張したものです。ブラウザ自動化フレームワークを開発してくださったオリジナルの作者の方々に深く感謝いたします。
ライセンス
MIT - 詳細についてはライセンスを参照してください。