Scrappey MCP Server

by pim97
Verified

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Allows selection of HTML elements using CSS selectors for browser automation actions like clicking, hovering, typing, and scrolling.

  • Enables creation and management of persistent browser sessions that maintain cookies and state across multiple requests and actions.

스크래피 MCP 서버

Scrappey.com의 웹 자동화 및 스크래핑 기능과 상호 작용하기 위한 모델 컨텍스트 프로토콜(MCP) 서버입니다. smithery.ai/server/@pim97/mcp-server-scrappey 에서 직접 사용해 보세요.

개요

이 MCP 서버는 AI 모델과 Scrappey의 웹 자동화 플랫폼 간의 브리지 역할을 하여 다음을 수행할 수 있습니다.

  • 브라우저 세션을 생성하고 관리합니다
  • Scrappey 인프라를 통해 HTTP 요청 보내기
  • 브라우저 동작(클릭, 입력, 스크롤 등)을 실행합니다.
  • 다양한 봇 방지 보호 기능을 자동으로 처리합니다.

설정

  1. Scrappey.com 에서 Scrappey API 키를 받으세요
  2. 환경 변수를 설정하세요:

지엑스피1

사용 가능한 도구

1. 세션 생성( scrappey_create_session )

쿠키와 기타 상태를 유지하는 새로운 브라우저 세션을 만듭니다.

{ "proxy": "http://user:pass@ip:port" // Optional: Custom proxy, leave empty for default }

2. 세션 파기( scrappey_destroy_session )

브라우저 세션을 올바르게 닫습니다.

{ "session": "session_id_here" // Required: The session ID to destroy }

3. 요청 보내기( scrappey_request )

Scrappey 인프라를 통해 HTTP 요청을 보냅니다.

{ "cmd": "request.get", // Required: request.get, request.post, etc. "url": "https://example.com", // Required: Target URL "session": "session_id_here", // Required: Session ID to use "postData": "key=value", // Optional: POST data "customHeaders": { // Optional: Custom headers "User-Agent": "custom-agent" } }

4. 브라우저 동작( scrappey_browser_action )

브라우저 자동화 작업을 실행합니다.

{ "session": "session_id_here", // Required: Session ID to use "browserActions": [ // Required: Array of actions to perform { "type": "click", // Action type: click, hover, type, scroll, wait "cssSelector": ".button", // CSS selector for element "text": "Hello", // Text to type (for type action) "wait": 1000 // Wait time in ms } ] }

일반적인 워크플로

  1. 세션을 생성하세요:
{ "name": "scrappey_create_session" }
  1. 반환된 세션 ID를 후속 요청에 사용합니다.
{ "name": "scrappey_request", "cmd": "request.get", "url": "https://example.com", "session": "returned_session_id" }
  1. 필요한 경우 브라우저 작업을 수행합니다.
{ "name": "scrappey_browser_action", "session": "returned_session_id", "browserActions": [ { "type": "click", "cssSelector": "#login-button" }, { "type": "type", "cssSelector": "#username", "text": "myuser" } ] }
  1. 완료되면 세션을 삭제하여 정리합니다.
{ "name": "scrappey_destroy_session", "session": "returned_session_id" }

특징

  • 상태 유지를 위한 세션 지속성
  • 자동 봇 방지 처리
  • 사용자 정의 프록시 지원
  • 브라우저 자동화 기능
  • HTTP 요청 방법(GET, POST, PUT, DELETE, PATCH)
  • 사용자 정의 헤더 및 쿠키 지원

모범 사례

  1. 세션을 마치면 항상 파기하세요.
  2. 동일한 사이트에 여러 요청을 할 때 세션을 재사용합니다.
  3. 더욱 인간적인 행동을 위해 작업 사이에 적절한 대기 시간을 사용하세요.
  4. 사용하기 전에 세션이 존재하는지 확인하세요

오류 처리

문제가 발생하면 서버에서 자세한 내용이 포함된 오류 메시지를 반환합니다. 일반적인 오류는 다음과 같습니다.

  • 잘못된 세션 ID
  • 네트워크 시간 초과
  • 브라우저 작업에 대한 잘못된 선택기
  • 봇 방지 보호 실패

자원

특허

MIT 라이센스

-
security - not tested
F
license - not found
-
quality - not tested

AI 모델과 Scrappey의 웹 자동화 플랫폼을 연결하는 서버로, 브라우저 세션 생성, HTTP 요청 실행, 봇 차단 보호 기능을 처리하면서 브라우저 작업 자동화를 허용합니다.

  1. Overview
    1. Setup
      1. Available Tools
        1. 1. Create Session (scrappey_create_session)
        2. 2. Destroy Session (scrappey_destroy_session)
        3. 3. Send Request (scrappey_request)
        4. 4. Browser Actions (scrappey_browser_action)
      2. Typical Workflow
        1. Features
          1. Best Practices
            1. Error Handling
              1. Resources
                1. License
                  ID: wlt8ef3tcu