Skip to main content
Glama

ブラウザ使用のMCPサーバー

鍛冶屋のバッジ

ブラウザ用のMCPサーバー。

概要

このリポジトリには、ブラウザ用ライブラリ用のサーバーが含まれています。このサーバーは、AIエージェントが自然言語を介してWebブラウザと対話できるようにする強力なブラウザ自動化システムを提供します。このサーバーはAnthropicのモデルコンテキストプロトコル(MCP)に基づいて構築されており、ブラウザ用ライブラリとのシームレスな統合を提供します。

Related MCP server: browser-use MCP server

特徴

  1. ブラウザコントロール

  • 自然言語によるブラウザインタラクションの自動化

  • ナビゲーション、フォーム入力、クリック、スクロール機能

  • タブ管理とスクリーンショット機能

  • クッキーと状態の管理

  1. エージェントシステム

  • custom_agent.py でのカスタムエージェントの実装

  • 視覚ベースの要素検出

  • アクションに対する構造化されたJSONレスポンス

  • メッセージ履歴の管理と要約

  1. 構成

  • APIキーと設定の環境ベースの構成

  • Chromeブラウザの設定(デバッグポート、永続性)

  • モデルプロバイダーの選択とパラメータ

依存関係

このプロジェクトは次の Python パッケージに依存しています。

パッケージ

バージョン

説明

>=10.1.0

Python インタープリターに画像処理機能を追加する Python Imaging Library (PIL) フォーク。

ブラウザの使用

==0.1.19

AIエージェントが自然言語でウェブブラウザと対話できるようにする強力なブラウザ自動化システム。このプロジェクトのブラウザ自動化機能を支えるコアライブラリです。

ファスタピ

>=0.115.6

Python 3.7以降で標準のPython型ヒントに基づいてAPIを構築するための、最新の高速(高パフォーマンス)ウェブフレームワークです。エージェントの機能を公開するサーバーの作成に使用されます。

ファストmcp

>=0.4.1

MCP (Model Context Protocol) サーバーを構築するための FastAPI をラップするフレームワーク。

インストラクター

>=1.7.2

OpenAIモデルを用いた構造化出力のプロンプトと検証のためのライブラリ。モデルの応答から構造化データを抽出できます。

ランチェーン

>=0.3.14

大規模言語モデル(LLM)を用いたアプリケーション開発のためのフレームワーク。異なる言語モデルコンポーネントを連結し、様々なAPIやデータソースと連携するためのツールを提供します。

langchain-google-genai

>=2.1.1

Google GenAI モデル用の LangChain 統合により、LangChain フレームワーク内で Google の生成 AI 機能を使用できるようになります。

langchain-openai

>=0.2.14

LangChainとOpenAIのモデルとの統合。LangChainフレームワーク内でOpenAIモデル(GPT-4など)の使用を可能にします。本プロジェクトでは、OpenAIの言語モデルおよびビジョンモデルとの連携に使用されます。

ランチェイン・オラマ

>=0.2.2

Ollama の Langchain 統合により、LLM のローカル実行が可能になります。

オープンアイ

>=1.59.5

OpenAI APIの公式Pythonクライアントライブラリ。OpenAIのモデルと直接やり取りするために使用します(必要に応じてLangChainに加えて)。

Python-dotenv

>=1.0.1

.env

ファイルからキーと値のペアを読み取り、環境変数として設定します。ローカル開発と構成管理を簡素化します。

ピダンティック

>=2.10.5

Python型アノテーションを用いたデータ検証と設定管理。実行時の型強制と自動モデル作成機能を提供します。エージェント内で構造化データモデルを定義するために不可欠です。

パイパークリップ

1.9.0以上

クリップボードのコピーと貼り付け機能用のクロスプラットフォーム Python モジュール。

ウビコーン

>=0.22.0

Python用のASGIウェブサーバー実装。FastAPIアプリケーションを提供するために使用されます。

コンポーネント

リソース

サーバーは、次のブラウザ自動化システムを実装します。

  • 高度なブラウザ制御のためのブラウザ使用ライブラリとの統合

  • カスタムブラウザ自動化機能

  • 視覚機能を備えたエージェントベースのインタラクションシステム

  • 永続的な状態管理

  • カスタマイズ可能なモデル設定

要件

  • オペレーティング システム (Linux、macOS、Windows。Docker または Microsoft WSL についてはテストしていません)

  • Python 3.11以上

  • uv (高速 Python パッケージ インストーラー)

  • Chrome/Chromiumブラウザ

  • クロードデスクトップ

クイックスタート

クロードデスクトップ

MacOS の場合: ~/Library/Application\ Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json

Smithery経由でインストール

Smithery経由で Claude Desktop の Browser Use を自動的にインストールするには:

npx -y @smithery/cli install @JovaniPink/mcp-browser-use --client claude
"mcpServers": { "mcp_server_browser_use": { "command": "uvx", "args": [ "mcp-server-browser-use", ], "env": { "OPENAI_ENDPOINT": "https://api.openai.com/v1", "OPENAI_API_KEY": "", "ANTHROPIC_API_KEY": "", "GOOGLE_API_KEY": "", "AZURE_OPENAI_ENDPOINT": "", "AZURE_OPENAI_API_KEY": "", // "DEEPSEEK_ENDPOINT": "https://api.deepseek.com", // "DEEPSEEK_API_KEY": "", // Set to false to disable anonymized telemetry "ANONYMIZED_TELEMETRY": "false", // Chrome settings "CHROME_PATH": "", "CHROME_USER_DATA": "", "CHROME_DEBUGGING_PORT": "9222", "CHROME_DEBUGGING_HOST": "localhost", // Set to true to keep browser open between AI tasks "CHROME_PERSISTENT_SESSION": "false", // Model settings "MCP_MODEL_PROVIDER": "anthropic", "MCP_MODEL_NAME": "claude-3-5-sonnet-20241022", "MCP_TEMPERATURE": "0.3", "MCP_MAX_STEPS": "30", "MCP_USE_VISION": "true", "MCP_MAX_ACTIONS_PER_STEP": "5", "MCP_TOOL_CALL_IN_CONTENT": "true" } } }

環境変数

主要な環境変数:

# API Keys ANTHROPIC_API_KEY=anthropic_key # Chrome Configuration # Optional: Path to Chrome executable CHROME_PATH=/path/to/chrome # Optional: Chrome user data directory CHROME_USER_DATA=/path/to/user/data # Default: 9222 CHROME_DEBUGGING_PORT=9222 # Default: localhost CHROME_DEBUGGING_HOST=localhost # Keep browser open between tasks CHROME_PERSISTENT_SESSION=false # Model Settings # Options: anthropic, openai, azure, deepseek MCP_MODEL_PROVIDER=anthropic # Model name MCP_MODEL_NAME=claude-3-5-sonnet-20241022 MCP_TEMPERATURE=0.3 MCP_MAX_STEPS=30 MCP_USE_VISION=true MCP_MAX_ACTIONS_PER_STEP=5

発達

設定

  1. リポジトリをクローンします。

git clone https://github.com/JovaniPink/mcp-browser-use.git cd mcp-browser-use
  1. 仮想環境を作成してアクティブ化します。

python -m venv .venv source .venv/bin/activate # On Windows: .venv\Scripts\activate
  1. 依存関係をインストールします:

uv sync
  1. サーバーを起動する

uv run mcp-browser-use

デバッグ

デバッグには、 MCP Inspectorを使用します。

npx @modelcontextprotocol/inspector uv --directory /path/to/project run mcp-server-browser-use

インスペクターにはデバッグ インターフェイスの URL が表示されます。

ブラウザアクション

サーバーは自然言語によるさまざまなブラウザアクションをサポートします。

  • ナビゲーション: URL に移動、戻る/進む、更新

  • インタラクション: クリック、入力、スクロール、ホバー

  • フォーム: フォームに入力し、送信し、オプションを選択します

  • 状態: ページコンテンツを取得し、スクリーンショットを撮る

  • タブ: タブの作成、閉じる、タブ間の切り替え

  • 視覚: 視覚的な外観で要素を見つける

  • クッキーとストレージ: ブラウザの状態を管理する

安全

Chromeの設定によっては、ブラウザをサーバー側で制御できるように設定されているものがあることにご注意ください。これはセキュリティリスクとなるため、注意して使用してください。このサーバーは本番環境での使用を想定していません。

セキュリティの詳細: SECURITY.MD

貢献

このプロジェクトへの貢献を歓迎します。以下の手順に従ってください。

  1. このリポジトリをフォークします。

  2. 機能ブランチを作成します: git checkout -b my-new-feature

  3. 変更をコミットします: git commit -m 'Add some feature'

  4. ブランチにプッシュします: git push origin my-new-feature

  5. プルリクエストを送信します。

大きな変更については、まず問題を開いて変更内容についてご相談ください。変更内容を反映し、必要に応じてテストを更新してください。

One-click Deploy
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JovaniPink/mcp-browser-use'

If you have feedback or need assistance with the MCP directory API, please join our Discord server