Lara Translate MCP Server

Official

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Supports running the MCP server in a Docker container, providing an isolated environment with all dependencies for the Lara Translate integration.

  • Enables running the MCP server directly through NPX, allowing users to execute the package without installing it locally.

  • Supports local development and package management for the MCP server through pnpm, which is used for installing dependencies and building the project.

ララ翻訳MCPサーバー

Lara Translate API 用のモデル コンテキスト プロトコル (MCP) サーバー。言語検出、コンテキスト認識翻訳、翻訳メモリのサポートにより、強力な翻訳機能を実現します。

📚 目次

📖 はじめに

モデルコンテキストプロトコル(MCP)は、AIアプリケーションが外部ツール、データソース、サービスと接続できるようにする、オープンで標準化された通信プロトコルです。MCPはAIアプリケーション用のUSB-Cポートのようなものだと考えてください。USB-Cがデバイスを様々な周辺機器に接続するための標準化された方法を提供するのと同様に、MCPはAIモデルを様々なデータソースやツールに接続するための標準化された方法を提供します。

Lara Translate MCP サーバーにより、AI アプリケーションは、この標準化されたプロトコルを通じて Lara Translate の強力な翻訳機能にアクセスできるようになります。

モデルコンテキストプロトコルの詳細については、 https://modelcontextprotocol.io/をご覧ください。

Lara Translate MCP Serverは、モデルコンテキストプロトコルを実装し、AIアプリケーションにシームレスな翻訳機能を提供します。統合は以下のフローで行われます。

  1. 接続の確立: MCP対応AIアプリケーションが起動すると、Lara Translate MCPサーバーを含む構成されたMCPサーバーに接続します。
  2. ツールとリソースの検出: AIアプリケーションは、Lara Translate MCPサーバーによって提供される利用可能な翻訳ツールとリソースを検出します。
  3. リクエスト処理: 翻訳の必要性が判明した場合:
    • AIアプリケーションは、翻訳するテキスト、言語ペア、およびオプションのコンテキストを含む構造化されたリクエストをフォーマットします。
    • MCPサーバーはリクエストを検証し、それをLara Translate API呼び出しに変換します。
    • リクエストはあなたの資格情報を使用してLara TranslateのAPIに安全に送信されます
  4. 翻訳と応答: Lara Translateは高度なAIモデルを使用して翻訳を処理します
  5. 結果の統合: 翻訳結果はAIアプリケーションに返され、応答に組み込むことができます。

この統合アーキテクチャにより、AI アプリケーションは API を直接実装することなくプロフェッショナル グレードの翻訳にアクセスできると同時に、API 資格情報のセキュリティを維持し、自然言語の指示を通じて翻訳パラメータを調整する柔軟性も得られます。

Lara を LLM と統合すると、強力な相乗効果が生まれ、英語以外の言語の翻訳品質が大幅に向上します。

一般LLMが翻訳分野で不十分な理由

大規模言語モデルは幅広い言語機能を備えていますが、特定のドメインや言語での正確な翻訳に必要な専門知識や最新の用語が不足していることがよくあります。

ララのドメイン固有の利点

Laraは、数十億ものプロによる翻訳セグメントでトレーニングされた翻訳言語モデル(T-LM)を活用することで、この限界を克服しています。これらのモデルは、一般的なLLMでは捉えきれない文化的ニュアンスや業界用語を捉える、ドメイン固有の機械翻訳を提供します。その結果、文脈に正確で、ネイティブスピーカーにとって自然な翻訳が実現します。

英語以外の言語の強さを考慮して設計

Laraは英語以外の言語に特化しており、GPT-4などのモデルに見られるパフォーマンスギャップに対処しています。Common CrawlやWikipediaなどのデータセットでは英語が主流であるため、他の言語の出力品質は低くなります。Laraは、多言語コンテキストにおいてより高品質な理解、生成、再構築を提供することで、このギャップを埋めるのに役立ちます。

より高速でスマートな多言語パフォーマンス

Laraは、複雑な翻訳タスクを専用のT-LMにオフロードすることで、計算オーバーヘッドを削減し、英語以外の言語入力を扱うLLMでよくある問題であるレイテンシを最小限に抑えます。そのアーキテクチャは、LLMと並行して翻訳を処理するため、速度や効率性を損なうことなく、リアルタイムで高品質な出力を実現します。

大規模でコスト効率の高い翻訳

Laraは、英語以外のワークフローにおいてGPT-4などのモデルを使用するコストも削減します。トークン化(および価格設定)は英語向けに最適化されているため、Laraを使用することでLLMに到達する前に翻訳が可能になり、翻訳された英語コンテンツのみが処理されます。これによりコスト効率が向上し、グローバル企業の競争力のあるスケーラビリティが実現します。

🛠 利用可能なツール

翻訳ツール

入力:

  • text (配列): 翻訳するテキスト ブロックの配列。各ブロックには次の内容が含まれます。
    • text (文字列):テキストの内容
    • translatable (boolean): このブロックを翻訳するかどうか
  • source (オプションの文字列):ソース言語コード(例:'en-EN')
  • target (文字列): ターゲット言語コード (例: 'it-IT')
  • context (オプションの文字列):翻訳品質を向上させるための追加のコンテキスト
  • instructions (オプションの文字列[]):翻訳動作を調整するための指示
  • source_hint (オプションの文字列): 言語検出のガイダンス

戻り値: 元の構造を維持した翻訳されたテキストブロック

翻訳メモリツール

戻り値: 記憶とその詳細の配列

入力:

  • name (文字列): 新しいメモリの名前
  • external_id (オプションの文字列):MyMemoryからインポートするメモリのID(例:'ext_my_[MyMemory ID]')

戻り値: 作成されたメモリデータ

入力:

  • id (文字列): 更新するメモリのID
  • name (文字列): メモリの新しい名前

戻り値: 更新されたメモリデータ

入力:

  • id (文字列): 削除するメモリのID

戻り値: 削除されたメモリデータ

入力:

  • id (文字列 | 文字列[]): 翻訳単位を追加するメモリのID
  • source (文字列): ソース言語コード
  • target (文字列): ターゲット言語コード
  • sentence (文字列): ソース文
  • translation (文字列):翻訳された文
  • tuid (オプションの文字列): 翻訳単位の一意の識別子
  • sentence_before (オプション文字列): 前の文脈文
  • sentence_after (オプション文字列): コンテキスト文の後ろ

返品: 翻訳の詳細を追加しました

入力:

  • id (文字列): メモリのID
  • source (文字列): ソース言語コード
  • target (文字列): ターゲット言語コード
  • sentence (文字列): ソース文
  • translation (文字列):翻訳された文
  • tuid (オプションの文字列): 翻訳単位の一意の識別子
  • sentence_before (オプション文字列): 前の文脈文
  • sentence_after (オプション文字列): コンテキスト文の後ろ

返品: 翻訳の詳細を削除しました

入力:

  • id (文字列): 更新するメモリのID
  • tmx (ファイルパス): アップロードするTMXファイルのパス
  • gzip (ブール値): ファイルが圧縮されているかどうかを示します (.gz)

返品:輸入詳細

入力:

  • id (文字列): インポートジョブのID

返品:輸入詳細

🚀 はじめに

📋 要件

  • Lara Translate API 認証情報
  • Claude Desktop、Cursors、GitHub Copilot などのモデルコンテキストプロトコル (MCP) をサポートする LLM クライアント
  • NPX または Docker (好みのインストール方法によって異なります)

🔌 インストール

導入

インストールプロセスはすべてのMCPクライアントで標準化されています。クライアントのMCP構成JSONファイルに構成オブジェクトを手動で追加するだけです。

クライアントで MCP を構成する方法がわからない場合は、MCP クライアントの公式ドキュメントを参照してください。

Lara Translate MCP は、NPX や Docker など、複数のインストール方法をサポートしています。
以下では、NPX を例として使用します。


インストールと設定

ステップ 1 : テキスト エディターでクライアントの MCP 構成 JSON ファイルを開き、次のスニペットをコピーして貼り付けます。

{ "mcpServers": { "lara-translate": { "command": "npx", "args": [ "-y", "@translated/lara-mcp@latest" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }

ステップ 2 : <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> Lara Translate API 資格情報に置き換えます (詳細については公式ドキュメントを参照してください)。

ステップ 3 : MCP クライアントを再起動します。


インストールの確認

MCP クライアントを再起動すると、利用可能な MCP のリストに Lara Translate MCP が表示されます。

インストールされているMCPを確認する方法はクライアントによって異なります。MCPクライアントのドキュメントをご参照ください。

Lara Translate MCP が正しく動作していることを確認するには、簡単なプロンプトで翻訳してみます。

Translate with Lara "Hello world" to Spanish

MCPクライアントがレスポンスの生成を開始します。Lara Translate MCPが正しくインストールおよび設定されている場合は、クライアントはアクションの承認を要求するか、Lara Translateが使用されていることを示す通知を表示します。

🧩 インストールエンジン

このオプションを使用するには、システムに Node.js がインストールされている必要があります。

  1. MCP 構成ファイルに次の内容を追加します。
{ "mcpServers": { "lara-translate": { "command": "npx", "args": ["-y", "@translated/lara-mcp@latest"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>を実際の Lara API 資格情報に置き換えます。

このオプションを使用するには、システムに Docker がインストールされている必要があります。

  1. MCP 構成ファイルに次の内容を追加します。
{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "translatednet/lara-mcp:latest" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>を実際の Lara API 資格情報に置き換えます。

Node.jsの使用

  1. リポジトリをクローンします。
git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. 依存関係をインストールしてビルドします。
# Install dependencies pnpm install # Build pnpm run build
  1. MCP 構成ファイルに次の内容を追加します。
{ "mcpServers": { "lara-translate": { "command": "node", "args": ["<FULL_PATH_TO_PROJECT_FOLDER>/dist/index.js"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 交換する:
    • <FULL_PATH_TO_PROJECT_FOLDER>はプロジェクトフォルダへの絶対パスです
    • <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>を実際の Lara API 資格情報に置き換えます。

Dockerイメージの構築

  1. リポジトリをクローンします。
git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. Docker イメージをビルドします。
docker build -t lara-mcp .
  1. MCP 構成ファイルに次の内容を追加します。
{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "lara-mcp" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>を実際の資格情報に置き換えます。

💻 MCPをサポートする人気のクライアント

MCP クライアントとその機能サポートの完全なリストについては、公式の MCP クライアント ページをご覧ください。

クライアント説明
クロードデスクトップClaude AI のデスクトップ アプリケーション
カーソルAIファーストのコードエディター
VS Code 用の ClineAI支援のためのVS Code拡張機能
GitHub コパイロット MCPGitHub Copilot MCP 統合のための VS Code 拡張機能
ウィンドサーフィンAI搭載のコードエディターと開発環境

🆘 サポート

  • Lara Translate APIに関する問題については、 Laraサポートにお問い合わせください。
  • このMCPサーバーに関する問題については、 GitHubで問題を開いてください。
ID: ggxyhqhcof