Lara Translate MCP Server

Official

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Supports running the MCP server in a Docker container, providing an isolated environment with all dependencies for the Lara Translate integration.

  • Enables running the MCP server directly through NPX, allowing users to execute the package without installing it locally.

  • Supports local development and package management for the MCP server through pnpm, which is used for installing dependencies and building the project.

라라 번역 MCP 서버

Lara Translate API를 위한 MCP(모델 컨텍스트 프로토콜) 서버는 언어 감지, 컨텍스트 인식 번역 및 번역 메모리를 지원하여 강력한 번역 기능을 제공합니다.

📚 목차

📖 소개

모델 컨텍스트 프로토콜(MCP)은 AI 애플리케이션이 외부 도구, 데이터 소스 및 서비스와 연결할 수 있도록 하는 개방형 표준 통신 프로토콜입니다. MCP는 AI 애플리케이션용 USB-C 포트와 같습니다. USB-C가 다양한 주변 장치에 장치를 연결하는 표준화된 방식을 제공하는 것처럼, MCP는 AI 모델을 다양한 데이터 소스 및 도구에 연결하는 표준화된 방식을 제공합니다.

Lara Translate MCP 서버는 표준화된 프로토콜을 통해 AI 애플리케이션이 Lara Translate의 강력한 번역 기능에 액세스할 수 있도록 합니다.

모델 컨텍스트 프로토콜에 대한 자세한 내용은 https://modelcontextprotocol.io/ 에서 확인하세요.

Lara Translate MCP 서버는 AI 애플리케이션에 원활한 번역 기능을 제공하기 위해 모델 컨텍스트 프로토콜을 구현합니다. 통합은 다음 흐름을 따릅니다.

  1. 연결 설정 : MCP 호환 AI 애플리케이션이 시작되면 Lara Translate MCP 서버를 포함하여 구성된 MCP 서버에 연결됩니다.
  2. 도구 및 리소스 검색 : AI 애플리케이션은 Lara Translate MCP 서버에서 제공하는 사용 가능한 번역 도구 및 리소스를 검색합니다.
  3. 요청 처리 : 번역 요구 사항이 확인되면:
    • AI 애플리케이션은 번역할 텍스트, 언어 쌍 및 선택적 컨텍스트를 사용하여 구조화된 요청을 포맷합니다.
    • MCP 서버는 요청을 검증하고 이를 Lara Translate API 호출로 변환합니다.
    • 요청은 귀하의 자격 증명을 사용하여 Lara Translate의 API로 안전하게 전송됩니다.
  4. 번역 및 응답 : Lara Translate는 고급 AI 모델을 사용하여 번역을 처리합니다.
  5. 결과 통합 : 번역 결과는 AI 애플리케이션으로 반환되며, 이후 해당 결과를 응답에 통합할 수 있습니다.

이러한 통합 아키텍처를 통해 AI 애플리케이션은 API를 직접 구현하지 않고도 전문가 수준의 번역에 액세스할 수 있으며, API 자격 증명의 보안을 유지하고 자연어 지침을 통해 번역 매개변수를 조정할 수 있는 유연성을 제공합니다.

Lara를 LLM과 통합하면 강력한 시너지 효과가 발생하여 영어가 아닌 언어의 번역 품질이 크게 향상됩니다.

일반 LLM이 번역에 부족한 이유

대규모 언어 모델은 광범위한 언어적 역량을 보유하고 있지만, 특정 도메인과 언어로 정확하게 번역하는 데 필요한 전문 지식과 최신 용어가 부족한 경우가 많습니다.

라라의 도메인별 장점

Lara는 수십억 개의 전문 번역 세그먼트를 학습한 번역 언어 모델(T-LM)을 활용하여 이러한 한계를 극복합니다. 이 모델은 일반 LLM에서는 간과할 수 있는 문화적 뉘앙스와 업계 용어를 포착하는 도메인별 기계 번역을 제공합니다. 그 결과, 문맥적으로 정확하고 원어민에게 자연스럽게 들리는 번역을 제공합니다.

영어가 아닌 언어의 강점에 맞춰 설계됨

Lara는 영어가 아닌 언어에 집중하여 GPT-4와 같은 모델에서 발견되는 성능 격차를 해소합니다. Common Crawl 및 Wikipedia와 같은 데이터셋에서 영어가 우세하면 다른 언어의 출력 품질이 낮아집니다. Lara는 다국어 환경에서 더 높은 품질의 이해, 생성 및 재구성을 제공함으로써 이러한 격차를 해소합니다.

더 빠르고 스마트한 다국어 성능

Lara는 복잡한 번역 작업을 전문 T-LM으로 분산시킴으로써 계산 오버헤드를 줄이고 지연 시간을 최소화합니다. 이는 영어가 아닌 입력을 처리하는 LLM에서 흔히 발생하는 문제입니다. Lara의 아키텍처는 LLM과 병렬로 번역을 처리하여 속도나 효율성을 저하시키지 않으면서 실시간으로 고품질 출력을 제공합니다.

규모에 따른 비용 효율적인 번역

Lara는 영어가 아닌 워크플로에서 GPT-4와 같은 모델을 사용하는 비용을 절감합니다. 토큰화(및 가격 책정)가 영어에 최적화되어 있기 때문에 Lara를 사용하면 LLM에 도달하기 전에 번역을 진행할 수 있습니다. 즉, 번역된 영어 콘텐츠만 처리됩니다. 이를 통해 비용 효율성이 향상되고 글로벌 기업의 경쟁력 있는 확장성이 확보됩니다.

🛠 사용 가능한 도구

번역 도구

입력 :

  • text (배열): 번역할 텍스트 블록의 배열, 각 블록에는 다음이 포함됩니다.
    • text (문자열): 텍스트 콘텐츠
    • translatable (부울): 이 블록을 번역해야 하는지 여부
  • source (선택적 문자열): 소스 언어 코드(예: 'en-EN')
  • target (문자열): 대상 언어 코드(예: 'it-IT')
  • context (선택적 문자열): 번역 품질을 개선하기 위한 추가 컨텍스트
  • instructions (선택적 문자열[]): 번역 동작을 조정하기 위한 지침
  • source_hint (선택 문자열): 언어 감지 지침

반환 : 원래 구조를 유지하는 번역된 텍스트 블록

번역 메모리 도구

반환 : 메모리 배열과 그 세부 정보

입력 :

  • name (문자열): 새 메모리의 이름
  • external_id (선택적 문자열): MyMemory에서 가져올 메모리의 ID(예: 'ext_my_[MyMemory ID]')

반환 : 생성된 메모리 데이터

입력 :

  • id (문자열): 업데이트할 메모리의 ID
  • name (문자열): 메모리의 새 이름

반환 : 업데이트된 메모리 데이터

입력 :

  • id (문자열): 삭제할 메모리의 ID

반환 : 삭제된 메모리 데이터

입력 :

  • id (문자열 | 문자열[]): 번역 단위를 추가할 메모리의 ID 또는 ID들
  • source (문자열): 소스 언어 코드
  • target (문자열): 대상 언어 코드
  • sentence (문자열): 소스 문장
  • translation (문자열): 번역된 문장
  • tuid (선택적 문자열): 번역 단위 고유 식별자
  • sentence_before (선택적 문자열): 문맥 문장 앞
  • sentence_after (선택적 문자열): 컨텍스트 문장 뒤

반환 : 번역 세부 정보 추가

입력 :

  • id (문자열): 메모리의 ID
  • source (문자열): 소스 언어 코드
  • target (문자열): 대상 언어 코드
  • sentence (문자열): 소스 문장
  • translation (문자열): 번역된 문장
  • tuid (선택적 문자열): 번역 단위 고유 식별자
  • sentence_before (선택적 문자열): 문맥 문장 앞
  • sentence_after (선택적 문자열): 컨텍스트 문장 뒤

반환 : 번역 세부 정보가 제거되었습니다.

입력 :

  • id (문자열): 업데이트할 메모리의 ID
  • tmx (파일 경로): 업로드할 TMX 파일의 경로
  • gzip (부울): 파일이 압축되었는지(.gz)를 나타냅니다.

반품 : 수입 세부 정보

입력 :

  • id (문자열): 가져오기 작업의 ID

반품 : 수입 세부 정보

🚀 시작하기

📋 요구 사항

  • Lara Translate API 자격 증명
    • 이를 얻으려면 공식 문서 를 참조할 수 있습니다.
  • Claude Desktop, Cursors 또는 GitHub Copilot과 같은 MCP(모델 컨텍스트 프로토콜)를 지원하는 LLM 클라이언트
  • NPX 또는 Docker(선호하는 설치 방법에 따라 다름)

🔌 설치

소개

설치 프로세스는 모든 MCP 클라이언트에서 표준화되어 있습니다. 클라이언트의 MCP 구성 JSON 파일에 구성 객체를 수동으로 추가하는 과정이 포함됩니다.

클라이언트에서 MCP를 구성하는 방법이 확실하지 않은 경우 MCP 클라이언트의 공식 문서를 참조하세요.

Lara Translate MCP는 NPX와 Docker를 포함한 다양한 설치 방법을 지원합니다.
아래에서는 NPX를 예로 들어보겠습니다.


설치 및 구성

1단계 : 텍스트 편집기로 클라이언트의 MCP 구성 JSON 파일을 열고 다음 스니펫을 복사하여 붙여넣습니다.

지엑스피1

2단계 : <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> Lara Translate API 자격 증명으로 바꾸세요(자세한 내용은 공식 문서를 참조하세요).

3단계 : MCP 클라이언트를 다시 시작합니다.


설치 확인

MCP 클라이언트를 다시 시작하면 사용 가능한 MCP 목록에 Lara Translate MCP가 표시됩니다.

설치된 MCP를 확인하는 방법은 클라이언트마다 다릅니다. MCP 클라이언트 설명서를 참조하세요.

Lara Translate MCP가 올바르게 작동하는지 확인하려면 간단한 프롬프트로 번역해 보세요.

Translate with Lara "Hello world" to Spanish

MCP 클라이언트가 응답을 생성하기 시작합니다. Lara Translate MCP가 제대로 설치 및 구성되면 클라이언트가 해당 작업에 대한 승인을 요청하거나 Lara Translate가 사용 중이라는 알림을 표시합니다.

🧩 설치 엔진

이 옵션을 사용하려면 시스템에 Node.js가 설치되어 있어야 합니다.

  1. MCP 구성 파일에 다음을 추가하세요.
{ "mcpServers": { "lara-translate": { "command": "npx", "args": ["-y", "@translated/lara-mcp@latest"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> 실제 Lara API 자격 증명으로 바꾸세요.

이 옵션을 사용하려면 시스템에 Docker가 설치되어 있어야 합니다.

  1. MCP 구성 파일에 다음을 추가하세요.
{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "translatednet/lara-mcp:latest" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> 실제 Lara API 자격 증명으로 바꾸세요.

Node.js 사용하기

  1. 저장소를 복제합니다.
git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. 종속성을 설치하고 빌드합니다.
# Install dependencies pnpm install # Build pnpm run build
  1. MCP 구성 파일에 다음을 추가하세요.
{ "mcpServers": { "lara-translate": { "command": "node", "args": ["<FULL_PATH_TO_PROJECT_FOLDER>/dist/index.js"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 바꾸다:
    • <FULL_PATH_TO_PROJECT_FOLDER> 는 프로젝트 폴더의 절대 경로입니다.
    • <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> 에 실제 Lara API 자격 증명을 입력합니다.

Docker 이미지 빌드

  1. 저장소를 복제합니다.
git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. Docker 이미지를 빌드합니다.
docker build -t lara-mcp .
  1. MCP 구성 파일에 다음을 추가하세요.
{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "lara-mcp" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> 실제 자격 증명으로 바꾸세요.

💻 MCP를 지원하는 인기 클라이언트

MCP 클라이언트와 해당 기능 지원의 전체 목록을 보려면 공식 MCP 클라이언트 페이지를 방문하세요.

고객설명
클로드 데스크탑Claude AI용 데스크톱 애플리케이션
커서AI 우선 코드 편집기
VS Code의 클라인AI 지원을 위한 VS Code 확장
GitHub Copilot MCPGitHub Copilot MCP 통합을 위한 VS Code 확장
윈드서핑AI 기반 코드 편집기 및 개발 환경

🆘 지원

  • Lara Translate API 관련 문제: Lara 지원팀 에 문의하세요.
  • 이 MCP 서버 관련 문제: GitHub 에서 문제를 열어보세요.
ID: ggxyhqhcof