Lara 翻译 MCP 服务器
Lara Translate API 的模型上下文协议 (MCP) 服务器,支持语言检测、上下文感知翻译和翻译记忆,实现强大的翻译功能。
📚 目录
📖 简介
模型上下文协议 (MCP) 是一种开放的标准化通信协议,使 AI 应用程序能够连接外部工具、数据源和服务。MCP 就像 AI 应用程序的 USB-C 端口一样——正如 USB-C 提供了一种将设备连接到各种外设的标准化方式一样,MCP 也提供了一种将 AI 模型连接到不同数据源和工具的标准化方式。
Lara Translate MCP Server 使 AI 应用程序能够通过该标准化协议访问 Lara Translate 强大的翻译功能。
有关模型上下文协议的更多信息: https://modelcontextprotocol.io/
Lara Translate MCP 服务器实现了模型上下文协议 (MCP),为 AI 应用程序提供无缝翻译功能。集成流程如下:
- 建立连接:当兼容 MCP 的 AI 应用程序启动时,它会连接到已配置的 MCP 服务器,包括 Lara Translate MCP 服务器
- 工具和资源发现:AI 应用程序发现 Lara Translate MCP 服务器提供的可用翻译工具和资源
- 请求处理:当确定翻译需求时:
- AI 应用程序格式化结构化请求,其中包含要翻译的文本、语言对和可选上下文
- MCP 服务器验证请求并将其转换为 Lara Translate API 调用
- 该请求将使用您的凭证安全地发送到 Lara Translate 的 API
- 翻译与响应:Lara Translate 使用先进的 AI 模型处理翻译
- 结果集成:翻译结果返回到人工智能应用程序,然后该应用程序可以将其合并到其响应中
这种集成架构允许 AI 应用程序无需直接实现 API 即可访问专业级翻译,同时保持 API 凭证的安全性并提供通过自然语言指令调整翻译参数的灵活性。
将 Lara 与 LLM 相结合可产生强大的协同效应,显著提高非英语语言的翻译质量。
为什么普通法学硕士在翻译方面不足
虽然大型语言模型具有广泛的语言能力,但它们往往缺乏特定领域和语言准确翻译所需的专业知识和最新术语。
Lara 的领域特定优势
Lara 利用基于数十亿专业翻译片段训练的翻译语言模型 (T-LM) 克服了这一限制。这些模型提供特定领域的机器翻译,能够捕捉到通用 LLM 可能遗漏的文化差异和行业术语。最终结果是:翻译符合语境,母语人士也能听得自然流畅。
专为非英语优势而设计
Lara 重点关注非英语语言,旨在弥补 GPT-4 等模型中存在的性能差距。由于英语在 Common Crawl 和 Wikipedia 等数据集中占据主导地位,导致其他语言的输出质量较低。Lara 通过在多语言环境下提供更高质量的理解、生成和重构,帮助缩小了这一差距。
更快、更智能的多语言性能
通过将复杂的翻译任务转移给专门的翻译语言模型 (T-LM),Lara 降低了计算开销并最大程度地减少了延迟——这是 LLM 处理非英语输入时常见的问题。其架构与 LLM 并行处理翻译,从而能够在不影响速度或效率的情况下实现实时、高质量的输出。
大规模、经济高效的翻译
Lara 还降低了在非英语工作流程中使用 GPT-4 等模型的成本。由于标记化(和定价)已针对英语进行了优化,因此使用 Lara 可以在获得 LLM 学位之前进行翻译,这意味着只需处理翻译后的英语内容。这提高了成本效率,并为全球企业提供了具有竞争力的可扩展性。
🛠 可用工具
翻译工具
输入:
text
(数组):要翻译的文本块数组,每个文本块包含:text
(字符串):文本内容translatable
(布尔值):此块是否应翻译
source
(可选字符串):源语言代码(例如,'en-EN')target
(字符串):目标语言代码(例如,“it-IT”)context
(可选字符串):用于提高翻译质量的附加上下文instructions
(可选 string[]):调整翻译行为的说明source_hint
(可选字符串):语言检测指南
返回:翻译后的文本块保持原始结构
翻译记忆工具
返回:记忆数组及其详细信息
输入:
name
(字符串):新内存的名称external_id
(可选字符串):要从 MyMemory 导入的内存的 ID(例如,'ext_my_[MyMemory ID]')
返回:创建的内存数据
输入:
id
(字符串):要更新的内存的 IDname
(字符串):内存的新名称
返回:更新后的内存数据
输入:
id
(字符串):要删除的内存的 ID
返回:已删除的内存数据
输入:
id
(string | string[]): 添加翻译单元的内存 ID 或 IDsource
(字符串):源语言代码target
(字符串):目标语言代码sentence
(字符串):源句子translation
(字符串):翻译的句子tuid
(可选字符串):翻译单元唯一标识符sentence_before
(可选字符串):上下文之前的句子sentence_after
(可选字符串):上下文句子之后
返回:添加了翻译详细信息
输入:
id
(字符串):内存的IDsource
(字符串):源语言代码target
(字符串):目标语言代码sentence
(字符串):源句子translation
(字符串):翻译的句子tuid
(可选字符串):翻译单元唯一标识符sentence_before
(可选字符串):上下文之前的句子sentence_after
(可选字符串):上下文句子之后
返回:删除翻译细节
输入:
id
(字符串):要更新的内存的 IDtmx
(文件路径):要上传的 TMX 文件的路径gzip
(布尔值):指示文件是否压缩(.gz)
返回:导入详细信息
输入:
id
(字符串):导入作业的 ID
返回:导入详细信息
🚀 入门
📋 要求
- Lara 翻译 API 凭证
- 要获取它们,您可以参考官方文档
- 支持模型上下文协议 (MCP) 的 LLM 客户端,例如 Claude Desktop、Cursors 或 GitHub Copilot
- NPX 或 Docker(取决于您首选的安装方法)
🔌 安装
介绍
所有 MCP 客户端的安装流程都是标准化的。它需要手动将配置对象添加到客户端的 MCP 配置 JSON 文件中。
如果您不确定如何使用您的客户端配置 MCP,请参阅您的 MCP 客户端的官方文档。
Lara Translate MCP 支持多种安装方式,包括 NPX 和 Docker。
下面,我们将以 NPX 为例。
安装和配置
步骤 1 :使用文本编辑器打开客户端的 MCP 配置 JSON 文件,然后复制并粘贴以下代码片段:
第 2 步:用您的 Lara Translate API 凭证替换<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
(有关详细信息,请参阅官方文档)。
步骤 3 :重新启动您的 MCP 客户端。
验证安装
重新启动 MCP 客户端后,您应该会在可用 MCP 列表中看到 Lara Translate MCP。
查看已安装 MCP 的方法因客户端而异。请参阅您的 MCP 客户端文档。
为了验证 Lara Translate MCP 是否正常工作,请尝试使用简单的提示进行翻译:
您的 MCP 客户端将开始生成响应。如果 Lara Translate MCP 已正确安装和配置,您的客户端将请求批准该操作,或显示正在使用 Lara Translate 的通知。
🧩 安装引擎
此选项要求您的系统上安装 Node.js。
- 将以下内容添加到您的 MCP 配置文件中:
- 用您的实际 Lara API 凭证替换
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
。
此选项需要在您的系统上安装 Docker。
- 将以下内容添加到您的 MCP 配置文件中:
- 用您的实际 Lara API 凭证替换
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
。
使用 Node.js
- 克隆存储库:
- 安装依赖项并构建:
- 将以下内容添加到您的 MCP 配置文件中:
- 代替:
<FULL_PATH_TO_PROJECT_FOLDER>
为您的项目文件夹的绝对路径<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
以及您的实际 Lara API 凭证。
构建 Docker 镜像
- 克隆存储库:
- 构建 Docker 镜像:
- 将以下内容添加到您的 MCP 配置文件中:
- 用您的实际凭证替换
<YOUR_ACCESS_KEY_ID>
和<YOUR_ACCESS_KEY_SECRET>
。
💻 支持 MCP 的热门客户端
有关 MCP 客户端及其功能支持的完整列表,请访问官方 MCP 客户端页面。
客户 | 描述 |
---|---|
克劳德桌面 | Claude AI 的桌面应用程序 |
光标 | AI-first 代码编辑器 |
VS Code 的 Cline | 用于 AI 辅助的 VS Code 扩展 |
GitHub Copilot MCP | 用于 GitHub Copilot MCP 集成的 VS Code 扩展 |
风帆冲浪 | 人工智能代码编辑器和开发环境 |
🆘 支持
Related MCP Servers
- -securityFlicense-qualityAn MCP server that enables language models to access code intelligence features like completions, definitions, and references across multiple programming languages through the Language Server Protocol.Last updated -Python
- AsecurityAlicenseAqualityAn MCP server that enables communication with Jira, allowing users to perform operations like getting, searching, creating, and editing issues through natural language interaction.Last updated -120TypeScriptMIT License
- -securityFlicense-qualityAn MCP (Multi-Agent Conversation Protocol) Server that enables AI agents to interact with Google's Cloud Translation API for translating text between languages.Last updated -Python
- -securityFlicense-qualityAn MCP server that enables interaction with Klarna's Payments API, allowing applications to implement Klarna payment options through natural language commands.Last updated -Python