Skip to main content
Glama

Ollama MCP Database Assistant

by robdodson

Ollama MCP データベースアシスタント

OllamaのLLM機能と、モデルコンテキストプロトコル(MCP)を介したPostgreSQLデータベースアクセスを組み合わせたインタラクティブなチャットインターフェースです。データに関する質問を自然言語で投げかけると、AIが実際のSQLクエリに基づいた回答を返してくれます。

特徴

  • PostgreSQL データベースへの自然言語インターフェース
  • 自動SQLクエリ生成
  • スキーマ認識応答
  • インタラクティブなチャットインターフェース
  • 安全な読み取り専用データベースアクセス

前提条件

  • Node.js 16以上
  • 実行中のPostgreSQLデータベース
  • Ollamaをローカルにインストールして実行
  • qwen2.5-coder:7b-instructモデルはOllamaに取り込まれました

設定

  1. リポジトリをクローンします。
git clone [your-repo-url] cd [your-repo-name]
  1. 依存関係をインストールします:
npm install
  1. 必要な Ollama モデルを取得します。
ollama pull qwen2.5-coder:7b-instruct
  1. プロジェクト ルートに.envファイルを作成します。
DATABASE_URL=postgresql://user:password@localhost:5432/dbname OLLAMA_MODEL=qwen2.5-coder:7b-instruct # Optional - this is the default

使用法

  1. チャット インターフェイスを開始します。
npm start
  1. 自然言語でデータについて質問します。
Connected to database. You can now ask questions about your data. Type "exit" to quit. What would you like to know about your data? Which products generated the most revenue last month? Analyzing... [AI will generate and execute a SQL query, then explain the results]
  1. アプリケーションを終了するには、「exit」と入力します。

仕組み

  1. アプリケーションはPostgreSQL MCPサーバーを介してPostgreSQLデータベースに接続します。
  2. データベーススキーマをロードしてキャッシュします
  3. 質問するときは:
    • スキーマと質問はOllamaに送信されます
    • Ollamaは適切なSQLクエリを生成する
    • クエリはMCPを通じて実行される
    • 結果は解釈のためにオラマに送り返される
    • 自然言語による応答を受け取ります

環境変数

変数説明デフォルト
データベースURLPostgreSQL接続文字列必須
OLLAMA_モデル使用するオラマモデルqwen2.5-コーダー:7b-命令

安全

  • すべてのデータベースアクセスは読み取り専用です
  • SQLクエリはSELECT文に制限されます
  • データベースの資格情報は .env ファイルで安全に保管されます

発達

搭載コンポーネント:

  • タイプスクリプト
  • モデルコンテキストプロトコル(MCP)
  • オラマ
  • PostgreSQL

トラブルシューティング

よくある問題

  1. 「データベースへの接続に失敗しました」
    • .env の DATABASE_URL を確認してください
    • PostgreSQLが実行中であることを確認する
    • ネットワーク接続を確認する
  2. 「Ollamaへの接続に失敗しました」
    • Ollama が実行中であることを確認する ( ollama serve )
    • モデルがインストールされていることを確認します( ollama list
  3. 「クエリ実行エラー」
    • データベースの権限を確認する
    • スキーマ内のテーブル/列名を確認する

ライセンス

マサチューセッツ工科大学

貢献

  1. リポジトリをフォークする
  2. 機能ブランチを作成する
  3. 変更をコミットする
  4. ブランチにプッシュする
  5. プルリクエストを開く
-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

OllamaのLLM機能と、モデルコンテキストプロトコル(MCP)を介したPostgreSQLデータベースアクセスを組み合わせたインタラクティブなチャットインターフェースです。データに関する質問を自然言語で投げかけると、AIが実際のSQLクエリに基づいた回答を返してくれます。

  1. 特徴
    1. 前提条件
      1. 設定
        1. 使用法
          1. 仕組み
            1. 環境変数
              1. 安全
                1. 発達
                  1. トラブルシューティング
                    1. よくある問題
                  2. ライセンス
                    1. 貢献

                      Related MCP Servers

                      • -
                        security
                        A
                        license
                        -
                        quality
                        A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
                        Last updated -
                        31
                        Python
                        MIT License
                        • Apple
                      • A
                        security
                        A
                        license
                        A
                        quality
                        MCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
                        Last updated -
                        3
                        12
                        Python
                        MIT License
                        • Apple
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
                        Last updated -
                        165
                        47
                        TypeScript
                        AGPL 3.0
                      • A
                        security
                        F
                        license
                        A
                        quality
                        A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                        Last updated -
                        10
                        33
                        JavaScript
                        • Apple

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/robdodson/ollama-mcp-db'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server