Integrations
Uses FastAPI to create a REST API server that handles requests for managing conversation context and interacting with language models.
Integrates with Google Gemini API to enable context-aware conversations with the language model, allowing the system to maintain conversation history across multiple requests.
MCP: 모델 컨텍스트 프로토콜
프로젝트 설명
MCP(Model Context Protocol)는 언어 모델(LLM)과 상호작용할 때 컨텍스트를 관리하는 시스템입니다. 이 시스템을 사용하면 요청 간 대화의 맥락을 저장할 수 있으며, 이를 통해 언어 모델이 이전 상호작용을 "기억"할 수 있습니다.
특이점
- 요청 간 컨텍스트 유지 및 관리
- Google Gemini API와 통합
- 여러 개의 독립 세션 사용 가능
- 식별자를 사용하여 세션 간 전환
- 대화 기록의 로컬 저장소
기술
- 파이썬 3
- 패스트API
- 제미니 API
- 유비콘
설치
- 복제 저장소:
지엑스피1
- 가상 환경을 만들고 활성화하세요.
Copy
- 종속성 설치:
Copy
.env
파일을 만들고 API 키를 추가합니다.
Copy
용법
서버 시작
Copy
서버는 http://localhost:9999 에서 사용할 수 있습니다.
클라이언트 사용
요청 보내기(새로운 세션이 생성됩니다):
Copy
같은 세션에서 대화를 계속하세요.
Copy
ID로 특정 세션을 사용합니다.
Copy
모든 세션 목록 보기:
Copy
프로젝트 구조
mcp_server.py
- 메인 MCP 서버mcp_client.py
- 서버와의 상호 작용을 위한 클라이언트requirements.txt
- 프로젝트 종속성
특허
MIT
작가
알렉스 레플리케이터 - alex.replicator@gmail.com
This server cannot be installed
Gemini API를 사용하여 모델이 여러 독립 세션에서 이전에 수행한 상호 작용을 기억할 수 있도록 하는 언어 모델 상호 작용의 컨텍스트를 관리하는 시스템입니다.