이 프로젝트는 MCP 프로토콜을 통해 로컬 LLM(예: Qwen)을 계산기나 지식 베이스와 같은 도구에 연결합니다. 어시스턴트는 이러한 도구를 자동으로 감지하고 호출하여 사용자 질의에 답변합니다.
📦 특징
- 🔧 MCP 서버를 통한 도구 실행
- 🧠 HTTP 또는 OpenAI SDK를 통한 로컬 LLM 통합
- 📚 지식 기반 지원(
data.json
) - ⚡
stdio
및sse
전송을 지원합니다
🗂 프로젝트 파일
파일 | 설명 |
---|---|
server.py | 도구를 등록하고 MCP 서버를 시작합니다. |
client-http.py | 로컬 LLM과 통신하기 위해 aiohttp 사용합니다. |
clientopenai.py | LLM + 도구 호출 논리를 위해 OpenAI 호환 SDK를 사용합니다. |
client-stdio.py | stdio를 사용하는 MCP 클라이언트 |
client-see.py | SSE를 사용하는 MCP 클라이언트 |
data.json | Q&A 지식 기반 |
📥 설치
요구 사항
파이썬 3.8 이상
종속성 설치:
지엑스피1
requirements.txt
🚀 시작하기
1. MCP 서버 실행
이렇게 하면 add
, multiply
, get_knowledge_base
와 같은 기능을 갖춘 도구 서버가 실행됩니다.
2. 클라이언트 시작
옵션 A: HTTP 클라이언트(원시 API를 통한 로컬 LLM)
옵션 B: OpenAI SDK 클라이언트
옵션 C: stdio 전송
옵션 D: SSE 운송
server.py
다음을 설정하는지 확인하세요.
그런 다음 실행하세요.
💬 예시 프롬프트
수학 도구 호출
응답:
지식 기반 질문
응답에는 data.json
의 관련 답변이 포함됩니다.
📁 예: data.json
🔧 구성
client-http.py
또는 clientopenai.py
내부에서 다음을 업데이트합니다.
LLM이 OpenAI 호환 API 엔드포인트를 제공하는지 확인하세요.
🧹 정리
클라이언트는 도구 호출 및 응답을 자동으로 처리합니다. Ctrl+C
사용하여 서버나 클라이언트를 중지할 수 있습니다.
🪪 라이센스
MIT 라이선스. 라이선스 파일을 참조하세요.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
MCP 프로토콜을 통해 로컬 LLM을 외부 도구(계산기, 지식 기반)에 연결하여 자동 도구 감지 및 실행을 활성화하여 쿼리 응답을 향상시킵니다.
Related MCP Servers
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -10
- -securityFlicense-qualityA customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.Last updated -1
- -securityAlicense-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -MIT License
- -securityFlicense-qualityA tool that connects to local MySQL databases and enables large language models (LLMs) to execute SQL queries through the Model Context Protocol (MCP).Last updated -2691