UseScraper MCPサーバー
これは、UseScraper APIを使用したWebスクレイピング機能を提供するTypeScriptベースのMCPサーバーです。様々な形式のWebページからコンテンツを抽出できるツール「scrape」を公開しています。
特徴
ツール
scrape- ウェブページからコンテンツを抽出するパラメータ:
url(必須): スクレイピングするウェブページのURLformat(オプション): コンテンツを保存する形式(text、html、markdown)。デフォルト: markdownadvanced_proxy(オプション): ボット検出を回避するために高度なプロキシを使用します。デフォルト: falseextract_object(オプション): 抽出するデータを指定するオブジェクト
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の UseScraper を自動的にインストールするには:
手動インストール
リポジトリをクローンします。
git clone https://github.com/your-repo/usescraper-server.git cd usescraper-server依存関係をインストールします:
npm installサーバーを構築します。
npm run build
構成
Claude Desktop で使用するには、サーバー設定を追加します。
MacOS の場合: ~/Library/Application Support/Claude/claude_desktop_config.json Windows の場合: %APPDATA%/Claude/claude_desktop_config.json
/path/to/usescraper-serverサーバーの実際のパスに置き換え、 your-api-key-here UseScraper API キーに置き換えます。
使用法
設定が完了すると、MCPインターフェースから「スクレイプ」ツールを使用できるようになります。使用例:
発達
自動リビルドを使用した開発の場合:
デバッグ
MCPサーバーはstdio経由で通信するため、デバッグが困難になる場合があります。パッケージスクリプトとして提供されているMCP Inspectorの使用をお勧めします。
インスペクターは、ブラウザでデバッグ ツールにアクセスするための URL を提供します。
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
UseScraper API を利用して Web スクレイピング機能を提供する TypeScript ベースの MCP サーバー。これにより、ユーザーはさまざまな形式の Web ページからコンテンツを抽出できます。
Related Resources
Related MCP Servers
- Asecurity-licenseAqualityMCP Server enabling integration with Scrapezy to retrieve structured data from websites.Last updated -11310MIT License
- -security-license-qualityA Python-based MCP server that crawls websites to extract and save content as markdown files, with features for mapping website structure and links.Last updated -3MIT License
- Asecurity-licenseAqualityA TypeScript-based web scraping server built on the Model Context Protocol that offers multiple export formats, content extraction rules, and support for both static and dynamic (SPA) websites.Last updated -7141MIT License
- Asecurity-licenseAqualityTypeScript implementation of an MCP server that provides tools for web crawling, content extraction, and browser automation, enabling AI systems to access and process web content through 15 specialized tools.Last updated -1398MIT License