Skip to main content
Glama

Ontology MCP

by bigdata-coss

Ontología MCP

Ontology MCP es un servidor de Protocolo de Contexto de Modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude. Esta herramienta le permite a Claude consultar y manipular datos ontológicos y aprovechar varios modelos de IA.

Descripción general de Ontology MCP

Características principales

Funciones relacionadas con SPARQL

  • Ejecutar consulta SPARQL ( mcp_sparql_execute_query )

  • Ejecutar consulta de actualización SPARQL ( mcp_sparql_update )

  • Lista de repositorios ( mcp_sparql_list_repositories )

  • Consultar la lista de gráficos ( mcp_sparql_list_graphs )

  • Obtener información de recursos ( mcp_sparql_get_resource_info )

Características relacionadas con el modelo Ollama

  • Ejecutar el modelo ( mcp_ollama_run )

  • Comprobar la información del modelo ( mcp_ollama_show )

  • Descargar modelo ( mcp_ollama_pull )

  • Obtener la lista de modelos ( mcp_ollama_list )

  • Eliminar modelo ( mcp_ollama_rm )

  • Finalización del chat ( mcp_ollama_chat_completion )

  • Comprobar el estado del contenedor ( mcp_ollama_status )

Funciones relacionadas con OpenAI

  • Chat completado ( mcp_openai_chat )

  • Crear imagen ( mcp_openai_image )

  • Texto a voz ( mcp_openai_tts )

  • Conversión de voz a texto ( mcp_openai_transcribe )

  • Generar incrustación ( mcp_openai_embedding )

Funciones relacionadas con Google Gemini

  • Generar texto ( mcp_gemini_generate_text )

  • Finalización del chat ( mcp_gemini_chat_completion )

  • Obtener la lista de modelos ( mcp_gemini_list_models )

  • ~~Generar imágenes ( mcp_gemini_generate_images ) - Usando el modelo Imagen~~ (actualmente deshabilitado)

  • ~~Generar videos ( mcp_gemini_generate_videos ) - Usando modelos Veo~~ (actualmente deshabilitado)

  • ~~Generar contenido multimodal ( mcp_gemini_generate_multimodal_content )~~ (actualmente deshabilitado)

Nota : Las funciones de creación de imágenes, creación de videos y creación de contenido multimodal de Gemini están actualmente deshabilitadas debido a problemas de compatibilidad de API.

Modelos Gemini compatibles

Transformación del modelo

aporte

salida de potencia

Objetivo de optimización

Vista previa de Flash de Gemini 2.5

gemini-2.5-flash-preview-04-17

Audio, imágenes, vídeo, texto

Texto

Pensamiento adaptativo, rentabilidad

Vista previa de Gemini 2.5 Pro

gemini-2.5-pro-preview-03-25

Audio, imágenes, vídeo, texto

Texto

Pensamiento y razonamiento mejorados, comprensión multimodal, codificación avanzada

Gemini 2.0 Flash

gemini-2.0-flash

Audio, imágenes, vídeo, texto

Texto, imágenes (experimentales), audio (próximamente)

Capacidades de próxima generación, velocidad, pensamiento, transmisión en tiempo real, creación multimodal

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

Audio, imágenes, vídeo, texto

Texto

Rentable y de baja latencia

Gemini 1.5 Flash

gemini-1.5-flash

Audio, imágenes, vídeo, texto

Texto

Rendimiento rápido y versátil para una variedad de tareas.

Géminis 1.5 Flash-8B

gemini-1.5-flash-8b

Audio, imágenes, vídeo, texto

Texto

Tareas de alto volumen y baja inteligencia

Géminis 1.5 Pro

gemini-1.5-pro

Audio, imágenes, vídeo, texto

Texto

Tareas de razonamiento complejas que requieren más inteligencia

Incrustación de Géminis

gemini-embedding-exp

Texto

Incrustación de texto

Medición de la relevancia de las cadenas de texto

Imagen 3

imagen-3.0-generate-002

Texto

imagen

El modelo de generación de imágenes más avanzado de Google

Veo 2

veo-2.0-generate-001

Texto, imágenes

video

Crea vídeos de alta calidad

Gemini 2.0 Flash Live

gemini-2.0-flash-live-001

Audio, vídeo, texto

Texto, audio

Interacción de voz y video bidireccional de baja latencia

Funciones de solicitud HTTP

  • Ejecutar solicitudes HTTP ( mcp_http_request ): comunicarse con API externas utilizando varios métodos HTTP como GET, POST, PUT, DELETE, etc.

Empezar

1. Clonar el repositorio

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Ejecute el contenedor Docker de GraphDB

Inicie el servidor GraphDB ejecutando el siguiente comando desde el directorio raíz del proyecto:

docker-compose up -d

La interfaz web de GraphDB se ejecuta en http://localhost:7200 .

3. Construya y ejecute el servidor MCP

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Importar datos RDF

Vaya a la interfaz web de GraphDB ( http://localhost:7200 ) y haga lo siguiente:

  1. Crear un repositorio:

    • Configuración → Repositorios → Crear nuevo repositorio

    • ID del repositorio: schemaorg-current-https (o cualquier nombre que desee)

    • Título del repositorio: "Schema.org"

    • Haga clic en "Crear"

  2. Obtener datos de muestra:

    • Seleccione el repositorio que ha creado

    • Importar → RDF → Subir archivos RDF

    • Sube un archivo de ejemplo al directorio imports (por ejemplo imports/example.ttl )

    • Haga clic en "Importar"

Nota : El proyecto incluye archivos RDF de ejemplo en el directorio imports .

5. Configuración de Claude Desktop

Para utilizar Ontology MCP en Claude Desktop, debe actualizar el archivo de configuración de MCP:

  1. Abra el archivo de configuración de Claude Desktop:

    • Ventanas: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. Añade las siguientes configuraciones:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

IMPORTANTE : Cambie la ruta en 'args' a la ruta absoluta real al directorio de compilación de su proyecto.

  1. Reiniciar Claude Desktop

Licencia

Este proyecto se proporciona bajo la licencia MIT. Consulte el archivo de LICENCIA para obtener más detalles.

Deploy Server
A
security – no known vulnerabilities
-
license - not tested
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de Protocolo de contexto de modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude, lo que permite a Claude consultar y manipular datos de ontología mientras aprovecha varios modelos de IA.

  1. Características principales
    1. Funciones relacionadas con SPARQL
    2. Características relacionadas con el modelo Ollama
    3. Funciones relacionadas con OpenAI
    4. Funciones relacionadas con Google Gemini
    5. Funciones de solicitud HTTP
  2. Empezar
    1. 1. Clonar el repositorio
    2. 2. Ejecute el contenedor Docker de GraphDB
    3. 3. Construya y ejecute el servidor MCP
    4. 4. Importar datos RDF
    5. 5. Configuración de Claude Desktop
  3. Licencia

    Related MCP Servers

    • -
      security
      -
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      17
      42
      MIT License
      • Apple
      • Linux
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.
      Last updated -
      62
      18
      MIT License
      • Linux
      • Apple
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.
      Last updated -
      3
      2
      MIT License
    • A
      security
      -
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.
      Last updated -
      7
      32
      91
      • Apple

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server