Skip to main content
Glama
translated

Lara Translate MCP Server

by translated

Lara 翻译 MCP 服务器

Lara Translate API 的模型上下文协议 (MCP) 服务器,支持语言检测、上下文感知翻译和翻译记忆,实现强大的翻译功能。

执照 Docker拉取 npm 下载

📚 目录

Related MCP server: Jira MCP Server

📖 简介

模型上下文协议 (MCP) 是一种开放的标准化通信协议,使 AI 应用程序能够连接外部工具、数据源和服务。MCP 就像 AI 应用程序的 USB-C 端口一样——正如 USB-C 提供了一种将设备连接到各种外设的标准化方式一样,MCP 也提供了一种将 AI 模型连接到不同数据源和工具的标准化方式。

Lara Translate MCP Server 使 AI 应用程序能够通过该标准化协议访问 Lara Translate 强大的翻译功能。

有关模型上下文协议的更多信息: https://modelcontextprotocol.io/

Lara Translate MCP 服务器实现了模型上下文协议 (MCP),为 AI 应用程序提供无缝翻译功能。集成流程如下:

  1. 建立连接:当兼容 MCP 的 AI 应用程序启动时,它会连接到已配置的 MCP 服务器,包括 Lara Translate MCP 服务器

  2. 工具和资源发现:AI 应用程序发现 Lara Translate MCP 服务器提供的可用翻译工具和资源

  3. 请求处理:当确定翻译需求时:

    • AI 应用程序格式化结构化请求,其中包含要翻译的文本、语言对和可选上下文

    • MCP 服务器验证请求并将其转换为 Lara Translate API 调用

    • 该请求将使用您的凭证安全地发送到 Lara Translate 的 API

  4. 翻译与响应:Lara Translate 使用先进的 AI 模型处理翻译

  5. 结果集成:翻译结果返回到人工智能应用程序,然后该应用程序可以将其合并到其响应中

这种集成架构允许 AI 应用程序无需直接实现 API 即可访问专业级翻译,同时保持 API 凭证的安全性并提供通过自然语言指令调整翻译参数的灵活性。

将 Lara 与 LLM 相结合可产生强大的协同效应,显著提高非英语语言的翻译质量。

为什么普通法学硕士在翻译方面不足

虽然大型语言模型具有广泛的语言能力,但它们往往缺乏特定领域和语言准确翻译所需的专业知识和最新术语。

Lara 的领域特定优势

Lara 利用基于数十亿专业翻译片段训练的翻译语言模型 (T-LM) 克服了这一限制。这些模型提供特定领域的机器翻译,能够捕捉到通用 LLM 可能遗漏的文化差异和行业术语。最终结果是:翻译符合语境,母语人士也能听得自然流畅。

专为非英语优势而设计

Lara 重点关注非英语语言,旨在弥补 GPT-4 等模型中存在的性能差距。由于英语在 Common Crawl 和 Wikipedia 等数据集中占据主导地位,导致其他语言的输出质量较低。Lara 通过在多语言环境下提供更高质量的理解、生成和重构,帮助缩小了这一差距。

更快、更智能的多语言性能

通过将复杂的翻译任务转移给专门的翻译语言模型 (T-LM),Lara 降低了计算开销并最大程度地减少了延迟——这是 LLM 处理非英语输入时常见的问题。其架构与 LLM 并行处理翻译,从而能够在不影响速度或效率的情况下实现实时、高质量的输出。

大规模、经济高效的翻译

Lara 还降低了在非英语工作流程中使用 GPT-4 等模型的成本。由于标记化(和定价)已针对英语进行了优化,因此使用 Lara 可以在获得 LLM 学位之前进行翻译,这意味着只需处理翻译后的英语内容。这提高了成本效率,并为全球企业提供了具有竞争力的可扩展性。

🛠 可用工具

翻译工具

输入

  • text (数组):要翻译的文本块数组,每个文本块包含:

    • text (字符串):文本内容

    • translatable (布尔值):此块是否应翻译

  • source (可选字符串):源语言代码(例如,'en-EN')

  • target (字符串):目标语言代码(例如,“it-IT”)

  • context (可选字符串):用于提高翻译质量的附加上下文

  • instructions (可选 string[]):调整翻译行为的说明

  • source_hint (可选字符串):语言检测指南

返回:翻译后的文本块保持原始结构

翻译记忆工具

返回:记忆数组及其详细信息

输入

  • name (字符串):新内存的名称

  • external_id (可选字符串):要从 MyMemory 导入的内存的 ID(例如,'ext_my_[MyMemory ID]')

返回:创建的内存数据

输入

  • id (字符串):要更新的内存的 ID

  • name (字符串):内存的新名称

返回:更新后的内存数据

输入

  • id (字符串):要删除的内存的 ID

返回:已删除的内存数据

输入

  • id (string | string[]): 添加翻译单元的内存 ID 或 ID

  • source (字符串):源语言代码

  • target (字符串):目标语言代码

  • sentence (字符串):源句子

  • translation (字符串):翻译的句子

  • tuid (可选字符串):翻译单元唯一标识符

  • sentence_before (可选字符串):上下文之前的句子

  • sentence_after (可选字符串):上下文句子之后

返回:添加了翻译详细信息

输入

  • id (字符串):内存的ID

  • source (字符串):源语言代码

  • target (字符串):目标语言代码

  • sentence (字符串):源句子

  • translation (字符串):翻译的句子

  • tuid (可选字符串):翻译单元唯一标识符

  • sentence_before (可选字符串):上下文之前的句子

  • sentence_after (可选字符串):上下文句子之后

返回:删除翻译细节

输入

  • id (字符串):要更新的内存的 ID

  • tmx (文件路径):要上传的 TMX 文件的路径

  • gzip (布尔值):指示文件是否压缩(.gz)

返回:导入详细信息

输入

  • id (字符串):导入作业的 ID

返回:导入详细信息

🚀 入门

📋 要求

  • Lara 翻译 API 凭证

  • 支持模型上下文协议 (MCP) 的 LLM 客户端,例如 Claude Desktop、Cursors 或 GitHub Copilot

  • NPX 或 Docker(取决于您首选的安装方法)

🔌 安装

介绍

所有 MCP 客户端的安装流程都是标准化的。它需要手动将配置对象添加到客户端的 MCP 配置 JSON 文件中。

如果您不确定如何使用您的客户端配置 MCP,请参阅您的 MCP 客户端的官方文档。

Lara Translate MCP 支持多种安装方式,包括 NPX 和 Docker。
下面,我们将以 NPX 为例。


安装和配置

步骤 1 :使用文本编辑器打开客户端的 MCP 配置 JSON 文件,然后复制并粘贴以下代码片段:

{ "mcpServers": { "lara-translate": { "command": "npx", "args": [ "-y", "@translated/lara-mcp@latest" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }

第 2 步:用您的 Lara Translate API 凭证替换<YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET> (有关详细信息,请参阅官方文档)。

步骤 3 :重新启动您的 MCP 客户端。


验证安装

重新启动 MCP 客户端后,您应该会在可用 MCP 列表中看到 Lara Translate MCP。

查看已安装 MCP 的方法因客户端而异。请参阅您的 MCP 客户端文档。

为了验证 Lara Translate MCP 是否正常工作,请尝试使用简单的提示进行翻译:

Translate with Lara "Hello world" to Spanish

您的 MCP 客户端将开始生成响应。如果 Lara Translate MCP 已正确安装和配置,您的客户端将请求批准该操作,或显示正在使用 Lara Translate 的通知。

🧩 安装引擎

此选项要求您的系统上安装 Node.js。

  1. 将以下内容添加到您的 MCP 配置文件中:

{ "mcpServers": { "lara-translate": { "command": "npx", "args": ["-y", "@translated/lara-mcp@latest"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 用您的实际 Lara API 凭证替换<YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>

此选项需要在您的系统上安装 Docker。

  1. 将以下内容添加到您的 MCP 配置文件中:

{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "translatednet/lara-mcp:latest" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 用您的实际 Lara API 凭证替换<YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>

使用 Node.js

  1. 克隆存储库:

git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. 安装依赖项并构建:

# Install dependencies pnpm install # Build pnpm run build
  1. 将以下内容添加到您的 MCP 配置文件中:

{ "mcpServers": { "lara-translate": { "command": "node", "args": ["<FULL_PATH_TO_PROJECT_FOLDER>/dist/index.js"], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 代替:

    • <FULL_PATH_TO_PROJECT_FOLDER>为您的项目文件夹的绝对路径

    • <YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>以及您的实际 Lara API 凭证。

构建 Docker 镜像

  1. 克隆存储库:

git clone https://github.com/translated/lara-mcp.git cd lara-mcp
  1. 构建 Docker 镜像:

docker build -t lara-mcp .
  1. 将以下内容添加到您的 MCP 配置文件中:

{ "mcpServers": { "lara-translate": { "command": "docker", "args": [ "run", "-i", "--rm", "-e", "LARA_ACCESS_KEY_ID", "-e", "LARA_ACCESS_KEY_SECRET", "lara-mcp" ], "env": { "LARA_ACCESS_KEY_ID": "<YOUR_ACCESS_KEY_ID>", "LARA_ACCESS_KEY_SECRET": "<YOUR_ACCESS_KEY_SECRET>" } } } }
  1. 用您的实际凭证替换<YOUR_ACCESS_KEY_ID><YOUR_ACCESS_KEY_SECRET>

💻 支持 MCP 的热门客户端

有关 MCP 客户端及其功能支持的完整列表,请访问官方 MCP 客户端页面

客户

描述

克劳德桌面

Claude AI 的桌面应用程序

光标

AI-first 代码编辑器

VS Code 的 Cline

用于 AI 辅助的 VS Code 扩展

GitHub Copilot MCP

用于 GitHub Copilot MCP 集成的 VS Code 扩展

风帆冲浪

人工智能代码编辑器和开发环境

🆘 支持

  • 对于与 Lara Translate API 相关的任何问题:请联系Lara 支持

  • 对于此 MCP 服务器的问题:在GitHub上打开一个问题

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/translated/lara-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server