Ontology MCP
Ontology MCP는 GraphDB의 SPARQL 엔드포인트와 Ollama 모델을 Claude와 연결하는 Model Context Protocol (MCP) 서버입니다. 이 도구를 사용하면 Claude가 온톨로지 데이터를 쿼리하고 조작하며, 다양한 AI 모델을 활용할 수 있습니다.

주요 기능
SPARQL 관련 기능
SPARQL 쿼리 실행 (
mcp_sparql_execute_query)SPARQL 업데이트 쿼리 실행 (
mcp_sparql_update)리포지토리 목록 조회 (
mcp_sparql_list_repositories)그래프 목록 조회 (
mcp_sparql_list_graphs)리소스 정보 조회 (
mcp_sparql_get_resource_info)
Ollama 모델 관련 기능
모델 실행 (
mcp_ollama_run)모델 정보 확인 (
mcp_ollama_show)모델 다운로드 (
mcp_ollama_pull)모델 목록 조회 (
mcp_ollama_list)모델 삭제 (
mcp_ollama_rm)채팅 완성 (
mcp_ollama_chat_completion)컨테이너 상태 확인 (
mcp_ollama_status)
OpenAI 관련 기능
채팅 완성 (
mcp_openai_chat)이미지 생성 (
mcp_openai_image)텍스트-음성 변환 (
mcp_openai_tts)음성-텍스트 변환 (
mcp_openai_transcribe)임베딩 생성 (
mcp_openai_embedding)
Google Gemini 관련 기능
텍스트 생성 (
mcp_gemini_generate_text)채팅 완성 (
mcp_gemini_chat_completion)모델 목록 조회 (
mcp_gemini_list_models)이미지 생성 ((현재 비활성화)비디오 생성 ((현재 비활성화)멀티모달 콘텐츠 생성 ((현재 비활성화)
참고: Gemini의 이미지 생성, 비디오 생성 및 멀티모달 콘텐츠 생성 기능은 현재 API 호환성 문제로 인해 비활성화되어 있습니다.
지원하는 Gemini 모델
모델 변형 | 입력 | 출력 | 최적화 목표 |
Gemini 2.5 Flash Preview
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 적응적 사고, 비용 효율성 |
Gemini 2.5 Pro 미리보기
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 향상된 사고 및 추론, 멀티모달 이해, 고급 코딩 |
Gemini 2.0 Flash
| 오디오, 이미지, 동영상, 텍스트 | 텍스트, 이미지 (실험용), 오디오 (출시 예정) | 차세대 기능, 속도, 사고, 실시간 스트리밍, 멀티모달 생성 |
Gemini 2.0 Flash-Lite
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 비용 효율성 및 낮은 지연 시간 |
Gemini 1.5 Flash
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 다양한 작업에서 빠르고 다재다능한 성능 |
Gemini 1.5 Flash-8B
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 대용량 및 낮은 인텔리전스 태스크 |
Gemini 1.5 Pro
| 오디오, 이미지, 동영상, 텍스트 | 텍스트 | 더 많은 지능이 필요한 복잡한 추론 작업 |
Gemini 삽입
| 텍스트 | 텍스트 임베딩 | 텍스트 문자열의 관련성 측정 |
Imagen 3
| 텍스트 | 이미지 | Google의 가장 고급 이미지 생성 모델 |
Veo 2
| 텍스트, 이미지 | 동영상 | 고화질 동영상 생성 |
Gemini 2.0 Flash 실시간
| 오디오, 동영상, 텍스트 | 텍스트, 오디오 | 지연 시간이 짧은 양방향 음성 및 동영상 상호작용 |
HTTP 요청 기능
HTTP 요청 실행 (
mcp_http_request) - GET, POST, PUT, DELETE 등 다양한 HTTP 메서드를 사용하여 외부 API와 통신
Related MCP server: terraform-cloud-mcp
시작하기
1. 저장소 클론
2. GraphDB Docker 컨테이너 실행
프로젝트 루트 디렉토리에서 다음 명령어를 실행하여 GraphDB 서버를 시작합니다:
GraphDB 웹 인터페이스가 http://localhost:7200에서 실행됩니다.
3. MCP 서버 빌드 및 실행
4. RDF 데이터 가져오기
GraphDB 웹 인터페이스(http://localhost:7200)에 접속하여 다음 단계를 수행합니다:
리포지토리 생성:
"Setup" → "Repositories" → "Create new repository"
Repository ID:
schemaorg-current-https(또는 원하는 이름)Repository title: "Schema.org"
"Create" 클릭
예제 데이터 가져오기:
생성한 리포지토리를 선택
"Import" → "RDF" → "Upload RDF files"
imports디렉토리의 예제 파일 업로드 (예:imports/example.ttl)"Import" 클릭
참고: 프로젝트에는
imports디렉토리에 예제 RDF 파일이 포함되어 있습니다.
5. Claude Desktop 설정
Claude Desktop에서 Ontology MCP를 사용하려면 MCP 설정 파일을 업데이트해야 합니다:
Claude Desktop 설정 파일 열기:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonLinux:
~/.config/Claude/claude_desktop_config.json
다음 설정 추가:
중요: `args'의 경로를 를 프로젝트 빌드 디렉토리의 실제 절대 경로로 변경하세요.
Claude Desktop 재시작
라이센스
이 프로젝트는 MIT 라이센스 하에 제공됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.