A
securityA
licenseA
qualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
Last updated -
3
25
Python
MIT License
Ollama의 LLM 기능과 MCP(Model Context Protocol)를 통한 PostgreSQL 데이터베이스 접근을 결합한 대화형 채팅 인터페이스입니다. 자연어로 데이터에 대해 질문하고 실제 SQL 쿼리를 기반으로 AI 기반 답변을 받아보세요.
지엑스피1
.env
파일을 만듭니다.변하기 쉬운 | 설명 | 기본 |
---|---|---|
데이터베이스_URL | PostgreSQL 연결 문자열 | 필수의 |
올라마_모델 | 사용할 Ollama 모델 | qwen2.5-코더:7b-지시 |
다음으로 구성됨:
ollama serve
)ollama list
)MIT
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Ollama의 LLM 기능과 MCP(Model Context Protocol)를 통한 PostgreSQL 데이터베이스 접근을 결합한 대화형 채팅 인터페이스입니다. 자연어로 데이터에 대해 질문하고 실제 SQL 쿼리를 기반으로 AI 기반 답변을 받아보세요.
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/robdodson/ollama-mcp-db'
If you have feedback or need assistance with the MCP directory API, please join our Discord server