Streamlit 및 Ollama를 사용한 MCP 서버 데모
이 프로젝트는 Streamlit으로 만든 웹 채팅 인터페이스와 Ollama를 사용한 로컬 언어 모델이 통합된 Python MCP(Model Context Protocol) 서버의 데모입니다. 채팅과 외부 MCP 도구 모두에서 PostgreSQL 데이터베이스의 사용자를 관리(추가, 삭제, 수정, 쿼리)할 수 있습니다.
형질
- Streamlit과의 웹 채팅 .
- Ollama(Llama 3 또는 기타 호환 모델)를 사용한 로컬 LLM .
- 사용자 CRUD를 위한 도구를 갖춘 MCP 서버 .
- 사용자를 저장하기 위한 PostgreSQL 데이터베이스 .
- 유연한 통합 : 채팅만 사용할 수도 있고, MCP 서버만 사용할 수도 있고, 둘 다 사용할 수도 있습니다.
요구 사항
- 파이썬 3.9 이상
- PostgreSQL 실행 및 접근 가능
- Ollama가 설치 및 실행됨(로컬 LLM용)
- 가상 환경(권장)
requirements.txt
파일의 종속성
시설
- 저장소를 복제합니다.지엑스피1
- 가상 환경을 만들고 활성화하세요.
python -m venv .venv
source .venv/bin/activate # En Linux/Mac
.venv\\Scripts\\activate # En Windows
- 종속성을 설치합니다.
pip install -r requirements.txt
- PostgreSQL 데이터베이스를 구성하고
server.py
에서 연결 세부 정보를 구성합니다. - (선택 사항) API 키를 사용하는 경우
.env
파일을 만듭니다.
사용
1. 레반타 올라마와 LLM 모델
2. Streamlit 채팅을 엽니다.
streamlit run streamlit.py
http://localhost:8501 에서 브라우저를 엽니다.
3. (선택 사항) MCP 서버를 시작합니다.
어느 하나
uv run --with mcp mcp run server.py
채팅 기능
- 사용자 추가:
쓰기: agregar usuario Juan juan@mail.com clave123
- 사용자 삭제:
유형: eliminar usuario juan@mail.com
- 사용자 수정:
유형: modificar usuario juan@mail.com nombre=Juan Perez contraseña=nuevaClave
- 사용자에게 문의하세요:
작성: consultar usuarios
또는 consultar usuario juan@mail.com
- 자유대화:
메시지가 작업이 아닌 경우 로컬 LLM이 응답합니다.
크레딧
기여와 제안을 환영합니다!