Skip to main content
Glama

Ollama MCP Database Assistant

by robdodson

Asistente de base de datos Ollama MCP

Una interfaz de chat interactiva que combina las capacidades LLM de Ollama con el acceso a bases de datos PostgreSQL mediante el Protocolo de Contexto de Modelo (MCP). Pregunte sobre sus datos en lenguaje natural y obtenga respuestas basadas en IA, respaldadas por consultas SQL reales.

Características

  • Interfaz de lenguaje natural para su base de datos PostgreSQL
  • Generación automática de consultas SQL
  • Respuestas que tienen en cuenta el esquema
  • Interfaz de chat interactiva
  • Acceso seguro y de solo lectura a la base de datos

Prerrequisitos

  • Node.js 16 o superior
  • Una base de datos PostgreSQL en ejecución
  • Ollama instalado y ejecutándose localmente
  • El modelo qwen2.5-coder:7b-instruct incluido en Ollama

Configuración

  1. Clonar el repositorio:
git clone [your-repo-url] cd [your-repo-name]
  1. Instalar dependencias:
npm install
  1. Extraiga el modelo Ollama requerido:
ollama pull qwen2.5-coder:7b-instruct
  1. Cree un archivo .env en la raíz del proyecto:
DATABASE_URL=postgresql://user:password@localhost:5432/dbname OLLAMA_MODEL=qwen2.5-coder:7b-instruct # Optional - this is the default

Uso

  1. Iniciar la interfaz de chat:
npm start
  1. Haga preguntas sobre sus datos en lenguaje natural:
Connected to database. You can now ask questions about your data. Type "exit" to quit. What would you like to know about your data? Which products generated the most revenue last month? Analyzing... [AI will generate and execute a SQL query, then explain the results]
  1. Escriba ‘exit’ para salir de la aplicación.

Cómo funciona

  1. La aplicación se conecta a su base de datos PostgreSQL a través del servidor PostgreSQL MCP
  2. Carga y almacena en caché el esquema de su base de datos.
  3. Cuando haces una pregunta:
    • El esquema y la pregunta se envían a Ollama
    • Ollama genera una consulta SQL apropiada
    • La consulta se ejecuta a través de MCP
    • Los resultados se envían a Ollama para su interpretación.
    • Recibirás una respuesta en lenguaje natural

Variables de entorno

VariableDescripciónPor defecto
URL DE LA BASE DE DATOSCadena de conexión de PostgreSQLRequerido
OLLAMA_MODELOModelo Ollama a utilizarqwen2.5-coder:7b-instruct

Seguridad

  • Todo acceso a la base de datos es de sólo lectura.
  • Las consultas SQL están restringidas a sentencias SELECT
  • Las credenciales de la base de datos se mantienen seguras en su archivo .env

Desarrollo

Construido con:

  • Mecanografiado
  • Protocolo de Contexto Modelo (MCP)
  • Ollama
  • PostgreSQL

Solución de problemas

Problemas comunes

  1. "Error al conectar con la base de datos"
    • Comprueba tu DATABASE_URL en .env
    • Verificar que PostgreSQL se esté ejecutando
    • Comprobar la conectividad de la red
  2. "Error al conectar con Ollama"
    • Asegúrese de que Ollama se esté ejecutando ( ollama serve )
    • Verificar que el modelo esté instalado ( ollama list )
  3. "Error al ejecutar la consulta"
    • Comprobar los permisos de la base de datos
    • Verificar los nombres de tablas/columnas en el esquema

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Contribuyendo

  1. Bifurcar el repositorio
  2. Crea tu rama de funciones
  3. Confirme sus cambios
  4. Empujar hacia la rama
  5. Abrir una solicitud de extracción
-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Una interfaz de chat interactiva que combina las capacidades LLM de Ollama con el acceso a bases de datos PostgreSQL mediante el Protocolo de Contexto de Modelo (MCP). Pregunte sobre sus datos en lenguaje natural y obtenga respuestas basadas en IA, respaldadas por consultas SQL reales.

  1. Características
    1. Prerrequisitos
      1. Configuración
        1. Uso
          1. Cómo funciona
            1. Variables de entorno
              1. Seguridad
                1. Desarrollo
                  1. Solución de problemas
                    1. Problemas comunes
                  2. Licencia
                    1. Contribuyendo

                      Related MCP Servers

                      • -
                        security
                        A
                        license
                        -
                        quality
                        A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
                        Last updated -
                        31
                        Python
                        MIT License
                        • Apple
                      • A
                        security
                        A
                        license
                        A
                        quality
                        MCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
                        Last updated -
                        3
                        12
                        Python
                        MIT License
                        • Apple
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
                        Last updated -
                        165
                        47
                        TypeScript
                        AGPL 3.0
                      • A
                        security
                        F
                        license
                        A
                        quality
                        A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                        Last updated -
                        10
                        33
                        JavaScript
                        • Apple

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/robdodson/ollama-mcp-db'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server