Servidor Omi MCP
Este proyecto proporciona un servidor de Protocolo de Contexto de Modelo (MCP) para interactuar con la API de Omi. El servidor proporciona herramientas para leer conversaciones y memorias, así como para crear nuevas conversaciones y memorias.
Configuración
- Clonar el repositorio
- Instalar dependencias con
npm install
- Crea un archivo
.env
con las siguientes variables:
Uso
Instalación mediante herrería
Para instalar Omi MCP Server para Claude Desktop automáticamente a través de Smithery :
Construyendo el servidor
Ejecución del servidor
Modo de desarrollo
Para desarrollo con recarga en caliente:
Probando el servidor
Se incluye un cliente de prueba sencillo para interactuar con el servidor MCP. Tras compilar el proyecto, ejecute:
O directamente:
Esto iniciará el servidor MCP y proporcionará un menú interactivo para probar las herramientas disponibles. El cliente de prueba utiliza un ID de usuario de prueba predeterminado ( test-user-123
) para todas las operaciones.
Limpiar y reconstruir
Para limpiar el directorio de compilación y reconstruir desde cero:
Configuración con Claude y Cursor
Configuración de Claude
Para utilizar este servidor MCP con Claude a través de Anthropic Console o API:
- Inicie el servidor MCP localmente:
- Al configurar su conversación de Claude, configure la conexión MCP:
- Ejemplo de mensaje para Claude:
- Claude utilizará el MCP para ejecutar la herramienta
read_omi_conversations
:
Configuración del cursor
Para utilizar este servidor MCP con Cursor:
- Inicie el servidor MCP en una terminal:
- En Cursor, vaya a Configuración > Extensiones > Servidores MCP
- Agregue un nuevo servidor MCP con estas configuraciones:
- Nombre: Omi API
- URL: stdio:/ruta/a/su/omi-mcp-local/dist/index.js
- Habilitar el servidor
- Ahora puedes usar las herramientas de Omi directamente desde Cursor. Por ejemplo:
- El cursor se comunicará con su servidor MCP para ejecutar las llamadas API necesarias.
Herramientas disponibles
El servidor MCP proporciona las siguientes herramientas:
leer_conversaciones_omi
Recupera conversaciones de Omi para un usuario específico, con filtros opcionales.
Parámetros:
user_id
(cadena): El ID del usuario para el que se buscarán las conversacioneslimit
(número, opcional): Número máximo de conversaciones a devolveroffset
(número, opcional): Número de conversaciones a omitir para la paginacióninclude_discarded
(booleano, opcional): si se deben incluir las conversaciones descartadasstatuses
(cadena, opcional): lista de estados separados por comas para filtrar conversaciones
leer_omi_memorias
Recupera recuerdos de Omi para un usuario específico.
Parámetros:
user_id
(cadena): El ID del usuario para el que se buscarán los recuerdoslimit
(número, opcional): Número máximo de memorias a devolveroffset
(número, opcional): Número de memorias a omitir para la paginación
crear_conversación_omi
Crea una nueva conversación en Omi para un usuario específico.
Parámetros:
text
(cadena): El contenido de texto completo de la conversaciónuser_id
(cadena): El ID del usuario para el que se creará la conversacióntext_source
(cadena): Fuente del contenido del texto (opciones: "audio_transcript", "message", "other_text")started_at
(cadena, opcional): cuándo comenzó la conversación/evento (formato ISO 8601)finished_at
(cadena, opcional): cuándo finalizó la conversación/evento (formato ISO 8601)language
(cadena, opcional): Código de idioma (predeterminado: "en")geolocation
(objeto, opcional): Datos de ubicación para la conversaciónlatitude
(número): coordenada de latitudlongitude
(número): coordenada de longitud
text_source_spec
(cadena, opcional): Especificación adicional sobre la fuente
crear_recuerdos_omi
Crea nuevos recuerdos en Omi para un usuario específico.
Parámetros:
user_id
(cadena): El ID del usuario para el que se crearán recuerdostext
(cadena, opcional): El contenido del texto del que se extraerán las memoriasmemories
(matriz, opcional): una matriz de objetos de memoria explícitos que se crearán directamentecontent
(cadena): El contenido de la memoriatags
(matriz de cadenas, opcional): etiquetas para la memoria
text_source
(cadena, opcional): Fuente del contenido del textotext_source_spec
(cadena, opcional): Especificación adicional sobre la fuente
Pruebas
Para probar el servidor MCP, puede utilizar el cliente de prueba proporcionado:
Esto iniciará un cliente de prueba interactivo que le permitirá:
- Obtener conversaciones
- Consigue recuerdos
- Crear una conversación
- Abandonar
El cliente de prueba utiliza un ID de usuario de prueba predeterminado ( test-user-123
) para todas las operaciones.
Explotación florestal
El servidor MCP incluye una función de registro integrada que escribe tanto en la consola como en un archivo de registro. Esto resulta útil para depurar y supervisar la actividad del servidor.
Ubicación del archivo de registro
Los registros se guardan en logs/mcp-server.log
en el directorio del proyecto. El archivo de registro incluye marcas de tiempo e información detallada sobre:
- Inicio y apagado del servidor
- Todas las solicitudes y respuestas de API
- Mensajes de error y seguimientos de pila
- Llamadas API a Omi
- Parámetros de solicitud y datos de respuesta
Visualización de registros
Puede ver los registros en tiempo real utilizando el comando tail
:
Esto le mostrará actualizaciones en vivo a medida que el servidor procesa solicitudes e interactúa con la API de Omi.
Formato de registro
Cada entrada de registro sigue este formato:
La marca de tiempo está en formato ISO 8601, lo que facilita la correlación de eventos y la depuración de problemas.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un servidor de protocolo de contexto de modelo que permite a los asistentes de IA interactuar con la API de Omi para recuperar y crear conversaciones y recuerdos para los usuarios.
Related MCP Servers
- -securityFlicense-qualityA Model Context Protocol server implementation that enables connection between OpenAI APIs and MCP clients for coding assistance with features like CLI interaction, web API integration, and tool-based architecture.Last updated -33Python
- -securityFlicense-qualityA versatile Model Context Protocol server that enables AI assistants to manage calendars, track tasks, handle emails, search the web, and control smart home devices.Last updated -13Python
- AsecurityAlicenseAqualityA Model Context Protocol server that allows AI assistants to interact with the VRChat API, enabling retrieval of user information, friends lists, and other VRChat data through a standardized interface.Last updated -72239TypeScriptMIT License
- -securityFlicense-qualityA comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.Last updated -161TypeScript