Ollama MCP 서버
Ollama의 로컬 LLM 모델과 Claude Desktop과 같은 MCP 호환 애플리케이션 간의 원활한 통합을 구현하는 Ollama용 MCP(Model Context Protocol) 서버입니다.
특징
- 사용 가능한 Ollama 모델 목록
- Ollama에서 새로운 모델 가져오기
- Ollama의 채팅 API를 사용하여 모델과 채팅하세요
- 자세한 모델 정보를 얻으세요
- 자동 포트 관리
- 환경 변수 구성
필수 조건
- Node.js(v16 이상)
- 엔피엠
- Ollama가 로컬에 설치 및 실행됨
설치
수동 설치
npm을 통해 전역적으로 설치:
지엑스피1
다른 MCP 애플리케이션에 설치
다른 MCP 호환 애플리케이션(예: Cline 또는 Claude Desktop)에 Ollama MCP 서버를 설치하려면 애플리케이션의 MCP 설정 파일에 다음 구성을 추가하세요.
설정 파일 위치는 응용 프로그램마다 다릅니다.
- Claude Desktop: Claude 앱 데이터 디렉터리의
claude_desktop_config.json
- Cline: VS Code 글로벌 저장소의
cline_mcp_settings.json
용법
서버 시작
간단히 실행하세요:
서버는 기본적으로 3456 포트에서 시작됩니다. PORT 환경 변수를 사용하여 다른 포트를 지정할 수 있습니다.
환경 변수
PORT
: 서버 포트(기본값: 3456). 직접 실행할 때 사용할 수 있습니다.OLLAMA_API
: Ollama API 엔드포인트(기본값: http://localhost:11434 )
API 엔드포인트
GET /models
- 사용 가능한 모델 나열POST /models/pull
- 새 모델 가져오기POST /chat
- 모델과 채팅GET /models/:name
- 모델 세부 정보 가져오기
개발
- 저장소를 복제합니다.
- 종속성 설치:
- 프로젝트를 빌드하세요:
- 서버를 시작합니다:
기여하다
기여를 환영합니다! 풀 리퀘스트를 제출해 주세요.
하지만 이는 사전 논의 및 동의 없이 이 프로젝트를 타사 서비스나 상용 플랫폼에 통합할 수 있는 권한을 부여하는 것은 아닙니다 . 이전에는 Smithery 와 같은 서비스와의 통합을 지원하기 위해 Dockerfile 및 관련 README 업데이트와 같은 기여를 수락했지만, 최근 유사한 서비스인 Glama 의 조치로 인해 이 정책을 재평가해야 했습니다.
Glama는 사전 고지나 동의 없이 오픈소스 MCP 프로젝트를 상용 서비스에 포함시켰고, 이후 플랫폼 과의 호환성을 보장하기 위해 유지 관리자에게 무급 작업을 수행하도록 요구하는 문제 제기를 했습니다. 대화나 보상 없이 커뮤니티의 노동력을 이윤을 위해 활용하는 이러한 행위는 사려 깊지 않을 뿐만 아니라 윤리적으로도 문제가 있습니다 .
결과적으로, 이 프로젝트와 기여자들의 무결성을 보호하기 위해 라이선스가 GNU Affero General Public License v3.0(AGPL-3.0) 으로 업데이트되었습니다. 이 변경으로 인해 소프트웨어 사용(특히 상업용 또는 서비스 기반 플랫폼 )은 AGPL의 조건을 완전히 준수해야 하며 별도의 상업용 라이선스를 취득 해야 합니다. 프로젝트에서 수익 창출이 활발하게 이루어지는 경우, 단순히 원본 소스 링크를 제공하는 것만으로는 충분하지 않습니다. 이 프로젝트를 상업용으로 제공하려면 먼저 문의하여 라이선스 조건에 대해 논의해 주시기 바랍니다.
특허
AGPL v3.0
관련된
이 프로젝트는 이전에 MIT 라이선스를 받았습니다. 2025년 4월 20일부터 무단 상업적 이용을 방지하기 위해 AGPL-3.0 라이선스가 적용됩니다. 이 변경 이전에 이 프로젝트를 사용하는 경우, 해당 라이선스의 Git 태그 또는 커밋을 참조하십시오.
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Ollama의 로컬 LLM 모델과 MCP 호환 애플리케이션 간의 원활한 통합을 가능하게 하여 모델 관리와 채팅 상호 작용을 지원합니다.
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -28TypeScript
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -312PythonMIT License
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1033JavaScript
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript