Skip to main content
Glama

Titan 内存 MCP 服务器

我知道它现在坏了,我会修复它!理想情况下,它只需在光标(或克劳德桌面)中以 yolo 模式运行,无需人工干预,并创建一个独立于 LLM 版本的“大脑”。

一个用于 LLM 的神经记忆系统,可以学习和预测序列,同时通过记忆向量保持状态。该 MCP(模型上下文协议)服务器为 Claude 3.7 Sonnet 和其他 LLM 提供了工具,用于在交互过程中保持记忆状态。

Related MCP server: Memory Bank MCP

特征

  • 完美适配 Cursor :现在 Cursor 会自动以 yolo 模式运行 MCP,您可以利用 LLM 的新内存将双手从方向盘上解放出来

  • 神经记忆架构:基于 Transformer 的记忆系统,可以学习和预测序列

  • 内存管理:高效的张量操作和自动内存清理

  • MCP 集成:与 Cursor 和其他 MCP 客户端完全兼容

  • 文本编码:将文本输入转换为张量表示

  • 记忆持久性:在会话之间保存和加载记忆状态

安装

# Clone the repository git clone https://github.com/yourusername/titan-memory.git cd titan-memory # Install dependencies npm install # Build the project npm run build # Start the server npm start

可用工具

Titan Memory MCP 服务器提供以下工具:

help

获取有关可用工具的帮助。

参数:

  • tool (可选):获取帮助的特定工具名称

  • category (可选):要探索的工具类别

  • showExamples (可选):包含使用示例

  • verbose (可选):包含详细描述

init_model

使用自定义配置初始化 Titan 内存模型。

参数:

  • inputDim :输入尺寸大小(默认值:768)

  • hiddenDim :隐藏维度大小(默认值:512)

  • memoryDim :内存维度大小(默认值:1024)

  • transformerLayers :变压器层数(默认值:6)

  • numHeads :注意力头的数量(默认值:8)

  • ffDimension :前馈维度(默认值:2048)

  • dropoutRate :辍学率(默认值:0.1)

  • maxSequenceLength :最大序列长度(默认值:512)

  • memorySlots :内存插槽数量(默认值:5000)

  • similarityThreshold :相似度阈值(默认值:0.65)

  • surpriseDecay :惊喜衰减率(默认值:0.9)

  • pruningInterval :修剪间隔(默认值:1000)

  • gradientClip :渐变剪切值(默认值:1.0)

forward_pass

通过模型进行前向传递以获得预测。

参数:

  • x :输入向量或文本

  • memoryState (可选):要使用的内存状态

train_step

执行训练步骤来更新模型。

参数:

  • x_t :当前输入向量或文本

  • x_next :下一个输入向量或文本

get_memory_state

获取当前内存状态和统计信息。

参数:

  • type (可选):可选内存类型过滤器

manifold_step

沿流形方向更新记忆。

参数:

  • base :基本内存状态

  • velocity :更新方向

prune_memory

删除不太相关的记忆以释放空间。

参数:

  • threshold :修剪阈值(0-1)

save_checkpoint

将内存状态保存到文件中。

参数:

  • path :检查点文件路径

load_checkpoint

从文件加载内存状态。

参数:

  • path :检查点文件路径

reset_gradients

重置累积梯度以恢复训练问题。

**参数:**无

在 Cursor 中使用 Claude 3.7 Sonnet

Titan Memory MCP 服务器旨在与 Cursor 中的 Claude 3.7 Sonnet 无缝协作。以下是使用示例:

// Initialize the model const result = await callTool("init_model", { inputDim: 768, memorySlots: 10000, transformerLayers: 8, }); // Perform a forward pass const { predicted, memoryUpdate } = await callTool("forward_pass", { x: "const x = 5;", // or vector: [0.1, 0.2, ...] memoryState: currentMemory, }); // Train the model const result = await callTool("train_step", { x_t: "function hello() {", x_next: " console.log('world');", }); // Get memory state const state = await callTool("get_memory_state", {});

内存管理

Titan Memory MCP 服务器包含复杂的内存管理,以防止内存泄漏并确保高效的张量操作:

  1. 自动清理:定期清理未使用的张量

  2. 内存加密:安全存储内存状态

  3. 张量验证:确保张量具有正确的形状

  4. 错误恢复:优雅地处理张量错误

建筑学

Titan Memory MCP 服务器采用模块化架构构建:

  • TitanMemoryServer :注册工具和处理请求的主服务器类

  • TitanMemoryModel :神经记忆模型实现

  • VectorProcessor :处理输入处理和文本编码

  • MemoryManager :管理张量操作和内存清理

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/henryhawke/mcp-titan'

If you have feedback or need assistance with the MCP directory API, please join our Discord server