Ontology MCP

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses Docker to run GraphDB and provide SPARQL endpoint functionality

  • Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants

  • Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion

Ontología MCP

Ontology MCP es un servidor de Protocolo de Contexto de Modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude. Esta herramienta le permite a Claude consultar y manipular datos ontológicos y aprovechar varios modelos de IA.

Características principales

Funciones relacionadas con SPARQL

  • Ejecutar consulta SPARQL ( mcp_sparql_execute_query )
  • Ejecutar consulta de actualización SPARQL ( mcp_sparql_update )
  • Lista de repositorios ( mcp_sparql_list_repositories )
  • Consultar la lista de gráficos ( mcp_sparql_list_graphs )
  • Obtener información de recursos ( mcp_sparql_get_resource_info )

Características relacionadas con el modelo Ollama

  • Ejecutar el modelo ( mcp_ollama_run )
  • Comprobar la información del modelo ( mcp_ollama_show )
  • Descargar modelo ( mcp_ollama_pull )
  • Obtener la lista de modelos ( mcp_ollama_list )
  • Eliminar modelo ( mcp_ollama_rm )
  • Finalización del chat ( mcp_ollama_chat_completion )
  • Comprobar el estado del contenedor ( mcp_ollama_status )

Funciones relacionadas con OpenAI

  • Chat completado ( mcp_openai_chat )
  • Crear imagen ( mcp_openai_image )
  • Texto a voz ( mcp_openai_tts )
  • Conversión de voz a texto ( mcp_openai_transcribe )
  • Generar incrustación ( mcp_openai_embedding )

Funciones relacionadas con Google Gemini

  • Generar texto ( mcp_gemini_generate_text )
  • Finalización del chat ( mcp_gemini_chat_completion )
  • Obtener la lista de modelos ( mcp_gemini_list_models )
  • ~~Generar imágenes ( mcp_gemini_generate_images ) - Usando el modelo Imagen~~ (actualmente deshabilitado)
  • ~~Generar videos ( mcp_gemini_generate_videos ) - Usando modelos Veo~~ (actualmente deshabilitado)
  • ~~Generar contenido multimodal ( mcp_gemini_generate_multimodal_content )~~ (actualmente deshabilitado)

Nota : Las funciones de creación de imágenes, creación de videos y creación de contenido multimodal de Gemini están actualmente deshabilitadas debido a problemas de compatibilidad de API.

Modelos Gemini compatibles

Transformación del modeloaportesalida de potenciaObjetivo de optimización
Vista previa de Flash de Gemini 2.5 gemini-2.5-flash-preview-04-17Audio, imágenes, vídeo, textoTextoPensamiento adaptativo, rentabilidad
Vista previa de Gemini 2.5 Pro gemini-2.5-pro-preview-03-25Audio, imágenes, vídeo, textoTextoPensamiento y razonamiento mejorados, comprensión multimodal, codificación avanzada
Gemini 2.0 Flash gemini-2.0-flashAudio, imágenes, vídeo, textoTexto, imágenes (experimentales), audio (próximamente)Capacidades de próxima generación, velocidad, pensamiento, transmisión en tiempo real, creación multimodal
Gemini 2.0 Flash-Lite gemini-2.0-flash-liteAudio, imágenes, vídeo, textoTextoRentable y de baja latencia
Gemini 1.5 Flash gemini-1.5-flashAudio, imágenes, vídeo, textoTextoRendimiento rápido y versátil para una variedad de tareas.
Géminis 1.5 Flash-8B gemini-1.5-flash-8bAudio, imágenes, vídeo, textoTextoTareas de alto volumen y baja inteligencia
Géminis 1.5 Pro gemini-1.5-proAudio, imágenes, vídeo, textoTextoTareas de razonamiento complejas que requieren más inteligencia
Incrustación de Géminis gemini-embedding-expTextoIncrustación de textoMedición de la relevancia de las cadenas de texto
Imagen 3 imagen-3.0-generate-002TextoimagenEl modelo de generación de imágenes más avanzado de Google
Veo 2 veo-2.0-generate-001Texto, imágenesvideoCrea vídeos de alta calidad
Gemini 2.0 Flash Live gemini-2.0-flash-live-001Audio, vídeo, textoTexto, audioInteracción de voz y video bidireccional de baja latencia

Funciones de solicitud HTTP

  • Ejecutar solicitudes HTTP ( mcp_http_request ): comunicarse con API externas utilizando varios métodos HTTP como GET, POST, PUT, DELETE, etc.

Empezar

1. Clonar el repositorio

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Ejecute el contenedor Docker de GraphDB

Inicie el servidor GraphDB ejecutando el siguiente comando desde el directorio raíz del proyecto:

docker-compose up -d

La interfaz web de GraphDB se ejecuta en http://localhost:7200 .

3. Construya y ejecute el servidor MCP

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Importar datos RDF

Vaya a la interfaz web de GraphDB ( http://localhost:7200 ) y haga lo siguiente:

  1. Crear un repositorio:
    • Configuración → Repositorios → Crear nuevo repositorio
    • ID del repositorio: schemaorg-current-https (o cualquier nombre que desee)
    • Título del repositorio: "Schema.org"
    • Haga clic en "Crear"
  2. Obtener datos de muestra:
    • Seleccione el repositorio que ha creado
    • Importar → RDF → Subir archivos RDF
    • Sube un archivo de ejemplo al directorio imports (por ejemplo imports/example.ttl )
    • Haga clic en "Importar"

Nota : El proyecto incluye archivos RDF de ejemplo en el directorio imports .

5. Configuración de Claude Desktop

Para utilizar Ontology MCP en Claude Desktop, debe actualizar el archivo de configuración de MCP:

  1. Abra el archivo de configuración de Claude Desktop:
    • Ventanas: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. Añade las siguientes configuraciones:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

IMPORTANTE : Cambie la ruta en 'args' a la ruta absoluta real al directorio de compilación de su proyecto.

  1. Reiniciar Claude Desktop

Licencia

Este proyecto se proporciona bajo la licencia MIT. Consulte el archivo de LICENCIA para obtener más detalles.

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Un servidor de Protocolo de contexto de modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude, lo que permite a Claude consultar y manipular datos de ontología mientras aprovecha varios modelos de IA.

  1. 주요 기능
    1. SPARQL 관련 기능
    2. Ollama 모델 관련 기능
    3. OpenAI 관련 기능
    4. Google Gemini 관련 기능
    5. HTTP 요청 기능
  2. 시작하기
    1. 1. 저장소 클론
    2. 2. GraphDB Docker 컨테이너 실행
    3. 3. MCP 서버 빌드 및 실행
    4. 4. RDF 데이터 가져오기
    5. 5. Claude Desktop 설정
  3. 라이센스
    ID: mxvujkgabm