Ollama MCP 데이터베이스 어시스턴트
Ollama의 LLM 기능과 MCP(Model Context Protocol)를 통한 PostgreSQL 데이터베이스 접근을 결합한 대화형 채팅 인터페이스입니다. 자연어로 데이터에 대해 질문하고 실제 SQL 쿼리를 기반으로 AI 기반 답변을 받아보세요.
특징
PostgreSQL 데이터베이스에 대한 자연어 인터페이스
자동 SQL 쿼리 생성
스키마 인식 응답
대화형 채팅 인터페이스
안전한 읽기 전용 데이터베이스 액세스
필수 조건
Node.js 16 이상
실행 중인 PostgreSQL 데이터베이스
Ollama가 로컬에 설치 및 실행됨
Ollama에서 가져온 qwen2.5-coder:7b-instruct 모델
설정
저장소를 복제합니다.
지엑스피1
종속성 설치:
필요한 Ollama 모델을 가져옵니다.
프로젝트 루트에
.env
파일을 만듭니다.
용법
채팅 인터페이스를 시작합니다.
자연어로 데이터에 대한 질문을 해보세요.
애플리케이션을 종료하려면 'exit'를 입력하세요.
작동 원리
이 애플리케이션은 PostgreSQL MCP 서버를 통해 PostgreSQL 데이터베이스에 연결됩니다.
데이터베이스 스키마를 로드하고 캐시합니다.
질문을 할 때:
스키마와 질문은 Ollama에게 전송됩니다.
Ollama는 적절한 SQL 쿼리를 생성합니다.
쿼리는 MCP를 통해 실행됩니다.
결과는 해석을 위해 Ollama로 다시 전송됩니다.
자연어 응답을 받습니다.
환경 변수
변하기 쉬운 | 설명 | 기본 |
데이터베이스_URL | PostgreSQL 연결 문자열 | 필수의 |
올라마_모델 | 사용할 Ollama 모델 | qwen2.5-코더:7b-지시 |
보안
모든 데이터베이스 액세스는 읽기 전용입니다.
SQL 쿼리는 SELECT 문으로 제한됩니다.
데이터베이스 자격 증명은 .env 파일에 안전하게 보관됩니다.
개발
다음으로 구성됨:
타입스크립트
모델 컨텍스트 프로토콜(MCP)
올라마
포스트그레스큐엘
문제 해결
일반적인 문제
"데이터베이스에 연결하지 못했습니다."
.env에서 DATABASE_URL을 확인하세요.
PostgreSQL이 실행 중인지 확인하세요
네트워크 연결 확인
"Ollama에 연결하지 못했습니다"
Ollama가 실행 중인지 확인하세요(
ollama serve
)모델이 설치되었는지 확인하세요(
ollama list
)
"쿼리 실행 중 오류"
데이터베이스 권한 확인
스키마에서 테이블/열 이름 확인
특허
MIT
기여하다
저장소를 포크하세요
기능 브랜치를 생성하세요
변경 사항을 커밋하세요
지점으로 밀어 넣기
풀 리퀘스트 열기
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Ollama의 LLM 기능과 MCP(Model Context Protocol)를 통한 PostgreSQL 데이터베이스 접근을 결합한 대화형 채팅 인터페이스입니다. 자연어로 데이터에 대해 질문하고 실제 SQL 쿼리를 기반으로 AI 기반 답변을 받아보세요.
Related MCP Servers
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -327MIT License
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -70103AGPL 3.0
- -securityAlicense-qualityA Model Context Protocol server that provides standardized interfaces for interacting with Ollama API, offering JSON responses, error handling, and intelligent guidance for LLM-based API calls.Last updated -MIT License
- -securityFlicense-qualityA conversational application server that integrates LLM capabilities via Ollama with vector memory context, supporting multiple users, sessions, automatic history summarization, and a plugin system for executing real actions.Last updated -