Skip to main content
Glama

Ontology MCP

by bigdata-coss

# Ontology MCP

Ontology MCP는 GraphDB의 SPARQL 엔드포인트와 Ollama 모델을 Claude와 연결하는 Model Context Protocol (MCP) 서버입니다. 이 도구를 사용하면 Claude가 온톨로지 데이터를 쿼리하고 조작하며, 다양한 AI 모델을 활용할 수 있습니다.

Ontology MCP 개요

주요 기능

SPARQL 관련 기능

  • SPARQL 쿼리 실행 (mcp_sparql_execute_query)
  • SPARQL 업데이트 쿼리 실행 (mcp_sparql_update)
  • 리포지토리 목록 조회 (mcp_sparql_list_repositories)
  • 그래프 목록 조회 (mcp_sparql_list_graphs)
  • 리소스 정보 조회 (mcp_sparql_get_resource_info)

Ollama 모델 관련 기능

  • 모델 실행 (mcp_ollama_run)
  • 모델 정보 확인 (mcp_ollama_show)
  • 모델 다운로드 (mcp_ollama_pull)
  • 모델 목록 조회 (mcp_ollama_list)
  • 모델 삭제 (mcp_ollama_rm)
  • 채팅 완성 (mcp_ollama_chat_completion)
  • 컨테이너 상태 확인 (mcp_ollama_status)

OpenAI 관련 기능

  • 채팅 완성 (mcp_openai_chat)
  • 이미지 생성 (mcp_openai_image)
  • 텍스트-음성 변환 (mcp_openai_tts)
  • 음성-텍스트 변환 (mcp_openai_transcribe)
  • 임베딩 생성 (mcp_openai_embedding)

Google Gemini 관련 기능

  • 텍스트 생성 (mcp_gemini_generate_text)
  • 채팅 완성 (mcp_gemini_chat_completion)
  • 모델 목록 조회 (mcp_gemini_list_models)
  • 이미지 생성 (mcp_gemini_generate_images) - Imagen 모델 활용 (현재 비활성화)
  • 비디오 생성 (mcp_gemini_generate_videos) - Veo 모델 활용 (현재 비활성화)
  • 멀티모달 콘텐츠 생성 (mcp_gemini_generate_multimodal_content) (현재 비활성화)

참고: Gemini의 이미지 생성, 비디오 생성 및 멀티모달 콘텐츠 생성 기능은 현재 API 호환성 문제로 인해 비활성화되어 있습니다.

지원하는 Gemini 모델
모델 변형입력출력최적화 목표
Gemini 2.5 Flash Preview gemini-2.5-flash-preview-04-17오디오, 이미지, 동영상, 텍스트텍스트적응적 사고, 비용 효율성
Gemini 2.5 Pro 미리보기 gemini-2.5-pro-preview-03-25오디오, 이미지, 동영상, 텍스트텍스트향상된 사고 및 추론, 멀티모달 이해, 고급 코딩
Gemini 2.0 Flash gemini-2.0-flash오디오, 이미지, 동영상, 텍스트텍스트, 이미지 (실험용), 오디오 (출시 예정)차세대 기능, 속도, 사고, 실시간 스트리밍, 멀티모달 생성
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite오디오, 이미지, 동영상, 텍스트텍스트비용 효율성 및 낮은 지연 시간
Gemini 1.5 Flash gemini-1.5-flash오디오, 이미지, 동영상, 텍스트텍스트다양한 작업에서 빠르고 다재다능한 성능
Gemini 1.5 Flash-8B gemini-1.5-flash-8b오디오, 이미지, 동영상, 텍스트텍스트대용량 및 낮은 인텔리전스 태스크
Gemini 1.5 Pro gemini-1.5-pro오디오, 이미지, 동영상, 텍스트텍스트더 많은 지능이 필요한 복잡한 추론 작업
Gemini 삽입 gemini-embedding-exp텍스트텍스트 임베딩텍스트 문자열의 관련성 측정
Imagen 3 imagen-3.0-generate-002텍스트이미지Google의 가장 고급 이미지 생성 모델
Veo 2 veo-2.0-generate-001텍스트, 이미지동영상고화질 동영상 생성
Gemini 2.0 Flash 실시간 gemini-2.0-flash-live-001오디오, 동영상, 텍스트텍스트, 오디오지연 시간이 짧은 양방향 음성 및 동영상 상호작용

HTTP 요청 기능

  • HTTP 요청 실행 (mcp_http_request) - GET, POST, PUT, DELETE 등 다양한 HTTP 메서드를 사용하여 외부 API와 통신

시작하기

1. 저장소 클론

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. GraphDB Docker 컨테이너 실행

프로젝트 루트 디렉토리에서 다음 명령어를 실행하여 GraphDB 서버를 시작합니다:

docker-compose up -d

GraphDB 웹 인터페이스가 http://localhost:7200에서 실행됩니다.

3. MCP 서버 빌드 및 실행

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. RDF 데이터 가져오기

GraphDB 웹 인터페이스(http://localhost:7200)에 접속하여 다음 단계를 수행합니다:

  1. 리포지토리 생성:
    • "Setup" → "Repositories" → "Create new repository"
    • Repository ID: schemaorg-current-https (또는 원하는 이름)
    • Repository title: "Schema.org"
    • "Create" 클릭
  2. 예제 데이터 가져오기:
    • 생성한 리포지토리를 선택
    • "Import" → "RDF" → "Upload RDF files"
    • imports 디렉토리의 예제 파일 업로드 (예: imports/example.ttl)
    • "Import" 클릭

참고: 프로젝트에는 imports 디렉토리에 예제 RDF 파일이 포함되어 있습니다.

5. Claude Desktop 설정

Claude Desktop에서 Ontology MCP를 사용하려면 MCP 설정 파일을 업데이트해야 합니다:

  1. Claude Desktop 설정 파일 열기:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. 다음 설정 추가:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

중요: `args'의 경로를 를 프로젝트 빌드 디렉토리의 실제 절대 경로로 변경하세요.

  1. Claude Desktop 재시작

라이센스

이 프로젝트는 MIT 라이센스 하에 제공됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.

  1. Hauptmerkmale
    1. SPARQL-bezogene Funktionen
    2. Funktionen im Zusammenhang mit dem Ollama-Modell
    3. OpenAI-bezogene Funktionen
    4. Google Gemini-bezogene Funktionen
    5. HTTP-Anforderungsfunktionen
  2. Erste Schritte
    1. 1. Klonen Sie das Repository
    2. 2. Führen Sie den GraphDB Docker-Container aus
    3. 3. Erstellen und Ausführen des MCP-Servers
    4. 4. RDF-Daten importieren
    5. 5. Claude Desktop einrichten
  3. Lizenz

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      9
      39
      MIT License
      • Apple
      • Linux
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.
      Last updated -
      62
      15
      MIT License
      • Linux
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.
      Last updated -
      3
      2
      MIT License
    • A
      security
      F
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.
      Last updated -
      7
      517
      64

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server