Integrations
Collaboration between GitHub users @jasonkneen and @ExpressionsBot
Uses TensorFlow.js for efficient tensor operations in the neural memory model with operations wrapped in tf.tidy() for proper memory management
Implements a type-safe implementation with TypeScript including type-safe MCP tool definitions
Servidor de memoria Titan
Una implementación de servidor de Protocolo de Contexto de Modelo (MCP) con un modelo de memoria Titan mejorado.
Descripción general
Este proyecto implementa un modelo de memoria para modelos de lenguaje grandes (LLM), diseñado para mejorar las capacidades de memoria en sistemas de IA generativa. Está desarrollado con TensorFlow.js y se implementa como un servidor MCP, lo que facilita su integración con cualquier cliente compatible con MCP.
Características
Implementado actualmente:
- Mecanismo de atención multicabezal
- Estructura jerárquica de la memoria
- Persistencia del estado de la memoria
- Integración con el Protocolo de Contexto de Modelo (MCP)
- Reproducción de memoria para un mejor aprendizaje
- Integración de caché LLM
- Asignación de memoria dinámica
- Almacenamiento de memoria a largo plazo
- Compresión de memoria avanzada
- Memoria persistente específica para cada tarea
- Actualizaciones de memoria basadas en el impulso
- Variantes de integración de memoria configurables (MAC/MAG)
Uso
El servidor expone varias herramientas a través del Protocolo de Contexto de Modelo (MCP):
init_model
: Inicializa el modelo de memoria con configuraciones personalizadasforward
: Realizar un pase hacia adelante a través del modelotrain_step
: Realizar un único paso de entrenamientotrain_sequence
: Entrena en una secuencia de vectoressave_model
: Guarda los pesos del modelo actualload_model
: Cargar pesos del modelo desde un archivo guardadoget_status
: Obtener el estado actual del modelostore_memory_state
: almacena el estado actual de la memoria con una claveretrieve_memory_state
: recupera un estado de memoria almacenadocompress_memory
: comprime el estado actual de la memoria para ahorrar espaciomemory_replay
: Realiza un entrenamiento de reproducción de memoria para mejorar el aprendizaje
Instalación
Ejecución del servidor
Esto iniciará el servidor MCP en el puerto 3000.
Desarrollo
Pruebas
Funciones avanzadas
Repetición de memoria
El mecanismo de reproducción de memoria almacena pares de entrada-salida anteriores y se reentrena periódicamente con ellos para reforzar el aprendizaje. Esto ayuda a prevenir el olvido catastrófico y mejora el rendimiento general del modelo.
Asignación de memoria dinámica
El modelo puede ajustar dinámicamente la asignación de memoria según la complejidad de la entrada y el nivel de sorpresa (error de predicción). Esto le permite asignar más recursos a patrones complejos y comprimir los más simples.
Almacenamiento de memoria a largo plazo
El sistema mantiene una memoria a largo plazo persistente que sobrevive entre sesiones. Esta memoria se almacena en el disco y se carga al iniciar el servidor, lo que permite la continuidad del aprendizaje.
Compresión de memoria
Las técnicas avanzadas de compresión reducen el consumo de memoria a la vez que preservan la información importante. Esto resulta especialmente útil para la implementación en entornos con recursos limitados.
Integración de caché LLM
El sistema mantiene un caché de estados de memoria a los que se accede con frecuencia, lo que mejora el rendimiento para consultas repetidas y reduce la sobrecarga computacional.
Citación
Si utiliza esta implementación en su investigación, por favor cite:
Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Permite el aprendizaje de secuencias de memoria neuronal con un modelo de memoria aumentada para una mejor comprensión y generación de código, con gestión de estados, detección de novedades y persistencia del modelo.
- Descripción general
- Características
- Uso
- Instalación
- Ejecución del servidor
- Desarrollo
- Pruebas
- Funciones avanzadas
- Citación
- Licencia
Related Resources
Related MCP Servers
- -securityAlicense-qualityProvides deep source code analysis for Unreal Engine codebases, allowing AI assistants to understand C++ class structures, search code, and analyze subsystems.Last updated -71TypeScriptMIT License
- AsecurityAlicenseAqualityEnhances Claude AI with persistent memory storage for Infrastructure-as-Code components, supporting version tracking and relationship mapping for Terraform and Ansible resources.Last updated -234PythonMIT License
- -securityAlicense-qualityThis advanced memory server facilitates neural memory-based sequence learning and prediction, enhancing code generation and understanding through state maintenance and manifold optimization as inspired by Google Research's framework.Last updated -3440TypeScriptMIT License
- -securityFlicense-qualityProvides a project memory bank and RAG context provider for enhanced code understanding and management through vector embeddings, integrated with RooCode and Cline.Last updated -9Python