Skip to main content
Glama

Ontology MCP

by bigdata-coss

Ontology MCP

Ontology MCP는 GraphDB의 SPARQL 엔드포인트와 Ollama 모델을 Claude와 연결하는 Model Context Protocol (MCP) 서버입니다. 이 도구를 사용하면 Claude가 온톨로지 데이터를 쿼리하고 조작하며, 다양한 AI 모델을 활용할 수 있습니다.

Ontology MCP 개요

주요 기능

SPARQL 관련 기능

  • SPARQL 쿼리 실행 (mcp_sparql_execute_query)

  • SPARQL 업데이트 쿼리 실행 (mcp_sparql_update)

  • 리포지토리 목록 조회 (mcp_sparql_list_repositories)

  • 그래프 목록 조회 (mcp_sparql_list_graphs)

  • 리소스 정보 조회 (mcp_sparql_get_resource_info)

Ollama 모델 관련 기능

  • 모델 실행 (mcp_ollama_run)

  • 모델 정보 확인 (mcp_ollama_show)

  • 모델 다운로드 (mcp_ollama_pull)

  • 모델 목록 조회 (mcp_ollama_list)

  • 모델 삭제 (mcp_ollama_rm)

  • 채팅 완성 (mcp_ollama_chat_completion)

  • 컨테이너 상태 확인 (mcp_ollama_status)

OpenAI 관련 기능

  • 채팅 완성 (mcp_openai_chat)

  • 이미지 생성 (mcp_openai_image)

  • 텍스트-음성 변환 (mcp_openai_tts)

  • 음성-텍스트 변환 (mcp_openai_transcribe)

  • 임베딩 생성 (mcp_openai_embedding)

Google Gemini 관련 기능

  • 텍스트 생성 (mcp_gemini_generate_text)

  • 채팅 완성 (mcp_gemini_chat_completion)

  • 모델 목록 조회 (mcp_gemini_list_models)

  • 이미지 생성 ( (현재 비활성화)

  • 비디오 생성 ( (현재 비활성화)

  • 멀티모달 콘텐츠 생성 ( (현재 비활성화)

참고: Gemini의 이미지 생성, 비디오 생성 및 멀티모달 콘텐츠 생성 기능은 현재 API 호환성 문제로 인해 비활성화되어 있습니다.

지원하는 Gemini 모델

모델 변형

입력

출력

최적화 목표

Gemini 2.5 Flash Preview

gemini-2.5-flash-preview-04-17

오디오, 이미지, 동영상, 텍스트

텍스트

적응적 사고, 비용 효율성

Gemini 2.5 Pro 미리보기

gemini-2.5-pro-preview-03-25

오디오, 이미지, 동영상, 텍스트

텍스트

향상된 사고 및 추론, 멀티모달 이해, 고급 코딩

Gemini 2.0 Flash

gemini-2.0-flash

오디오, 이미지, 동영상, 텍스트

텍스트, 이미지 (실험용), 오디오 (출시 예정)

차세대 기능, 속도, 사고, 실시간 스트리밍, 멀티모달 생성

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

오디오, 이미지, 동영상, 텍스트

텍스트

비용 효율성 및 낮은 지연 시간

Gemini 1.5 Flash

gemini-1.5-flash

오디오, 이미지, 동영상, 텍스트

텍스트

다양한 작업에서 빠르고 다재다능한 성능

Gemini 1.5 Flash-8B

gemini-1.5-flash-8b

오디오, 이미지, 동영상, 텍스트

텍스트

대용량 및 낮은 인텔리전스 태스크

Gemini 1.5 Pro

gemini-1.5-pro

오디오, 이미지, 동영상, 텍스트

텍스트

더 많은 지능이 필요한 복잡한 추론 작업

Gemini 삽입

gemini-embedding-exp

텍스트

텍스트 임베딩

텍스트 문자열의 관련성 측정

Imagen 3

imagen-3.0-generate-002

텍스트

이미지

Google의 가장 고급 이미지 생성 모델

Veo 2

veo-2.0-generate-001

텍스트, 이미지

동영상

고화질 동영상 생성

Gemini 2.0 Flash 실시간

gemini-2.0-flash-live-001

오디오, 동영상, 텍스트

텍스트, 오디오

지연 시간이 짧은 양방향 음성 및 동영상 상호작용

HTTP 요청 기능

  • HTTP 요청 실행 (mcp_http_request) - GET, POST, PUT, DELETE 등 다양한 HTTP 메서드를 사용하여 외부 API와 통신

시작하기

1. 저장소 클론

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. GraphDB Docker 컨테이너 실행

프로젝트 루트 디렉토리에서 다음 명령어를 실행하여 GraphDB 서버를 시작합니다:

docker-compose up -d

GraphDB 웹 인터페이스가 http://localhost:7200에서 실행됩니다.

3. MCP 서버 빌드 및 실행

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. RDF 데이터 가져오기

GraphDB 웹 인터페이스(http://localhost:7200)에 접속하여 다음 단계를 수행합니다:

  1. 리포지토리 생성:

    • "Setup" → "Repositories" → "Create new repository"

    • Repository ID: schemaorg-current-https (또는 원하는 이름)

    • Repository title: "Schema.org"

    • "Create" 클릭

  2. 예제 데이터 가져오기:

    • 생성한 리포지토리를 선택

    • "Import" → "RDF" → "Upload RDF files"

    • imports 디렉토리의 예제 파일 업로드 (예: imports/example.ttl)

    • "Import" 클릭

참고: 프로젝트에는 imports 디렉토리에 예제 RDF 파일이 포함되어 있습니다.

5. Claude Desktop 설정

Claude Desktop에서 Ontology MCP를 사용하려면 MCP 설정 파일을 업데이트해야 합니다:

  1. Claude Desktop 설정 파일 열기:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. 다음 설정 추가:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

중요: `args'의 경로를 를 프로젝트 빌드 디렉토리의 실제 절대 경로로 변경하세요.

  1. Claude Desktop 재시작

라이센스

이 프로젝트는 MIT 라이센스 하에 제공됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.

Deploy Server
A
security – no known vulnerabilities
-
license - not tested
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

A Model Context Protocol (MCP) server that connects GraphDB's SPARQL endpoints and Ollama models to Claude, enabling Claude to query and manipulate ontology data while leveraging various AI models.

  1. 주요 기능
    1. SPARQL 관련 기능
    2. Ollama 모델 관련 기능
    3. OpenAI 관련 기능
    4. Google Gemini 관련 기능
    5. HTTP 요청 기능
  2. 시작하기
    1. 1. 저장소 클론
    2. 2. GraphDB Docker 컨테이너 실행
    3. 3. MCP 서버 빌드 및 실행
    4. 4. RDF 데이터 가져오기
    5. 5. Claude Desktop 설정
  3. 라이센스

    Related MCP Servers

    • -
      security
      -
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      17
      42
      MIT License
      • Apple
      • Linux
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.
      Last updated -
      62
      18
      MIT License
      • Linux
      • Apple
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.
      Last updated -
      3
      2
      MIT License
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.
      Last updated -
      7
      32
      91
      • Apple

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server