Skip to main content
Glama

Ontology MCP

by bigdata-coss

Ontología MCP

Ontology MCP es un servidor de Protocolo de Contexto de Modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude. Esta herramienta le permite a Claude consultar y manipular datos ontológicos y aprovechar varios modelos de IA.

Descripción general de Ontology MCP

Características principales

Funciones relacionadas con SPARQL

  • Ejecutar consulta SPARQL ( mcp_sparql_execute_query )
  • Ejecutar consulta de actualización SPARQL ( mcp_sparql_update )
  • Lista de repositorios ( mcp_sparql_list_repositories )
  • Consultar la lista de gráficos ( mcp_sparql_list_graphs )
  • Obtener información de recursos ( mcp_sparql_get_resource_info )

Características relacionadas con el modelo Ollama

  • Ejecutar el modelo ( mcp_ollama_run )
  • Comprobar la información del modelo ( mcp_ollama_show )
  • Descargar modelo ( mcp_ollama_pull )
  • Obtener la lista de modelos ( mcp_ollama_list )
  • Eliminar modelo ( mcp_ollama_rm )
  • Finalización del chat ( mcp_ollama_chat_completion )
  • Comprobar el estado del contenedor ( mcp_ollama_status )

Funciones relacionadas con OpenAI

  • Chat completado ( mcp_openai_chat )
  • Crear imagen ( mcp_openai_image )
  • Texto a voz ( mcp_openai_tts )
  • Conversión de voz a texto ( mcp_openai_transcribe )
  • Generar incrustación ( mcp_openai_embedding )

Funciones relacionadas con Google Gemini

  • Generar texto ( mcp_gemini_generate_text )
  • Finalización del chat ( mcp_gemini_chat_completion )
  • Obtener la lista de modelos ( mcp_gemini_list_models )
  • ~~Generar imágenes ( mcp_gemini_generate_images ) - Usando el modelo Imagen~~ (actualmente deshabilitado)
  • ~~Generar videos ( mcp_gemini_generate_videos ) - Usando modelos Veo~~ (actualmente deshabilitado)
  • ~~Generar contenido multimodal ( mcp_gemini_generate_multimodal_content )~~ (actualmente deshabilitado)

Nota : Las funciones de creación de imágenes, creación de videos y creación de contenido multimodal de Gemini están actualmente deshabilitadas debido a problemas de compatibilidad de API.

Modelos Gemini compatibles
Transformación del modeloaportesalida de potenciaObjetivo de optimización
Vista previa de Flash de Gemini 2.5 gemini-2.5-flash-preview-04-17Audio, imágenes, vídeo, textoTextoPensamiento adaptativo, rentabilidad
Vista previa de Gemini 2.5 Pro gemini-2.5-pro-preview-03-25Audio, imágenes, vídeo, textoTextoPensamiento y razonamiento mejorados, comprensión multimodal, codificación avanzada
Gemini 2.0 Flash gemini-2.0-flashAudio, imágenes, vídeo, textoTexto, imágenes (experimentales), audio (próximamente)Capacidades de próxima generación, velocidad, pensamiento, transmisión en tiempo real, creación multimodal
Gemini 2.0 Flash-Lite gemini-2.0-flash-liteAudio, imágenes, vídeo, textoTextoRentable y de baja latencia
Gemini 1.5 Flash gemini-1.5-flashAudio, imágenes, vídeo, textoTextoRendimiento rápido y versátil para una variedad de tareas.
Géminis 1.5 Flash-8B gemini-1.5-flash-8bAudio, imágenes, vídeo, textoTextoTareas de alto volumen y baja inteligencia
Géminis 1.5 Pro gemini-1.5-proAudio, imágenes, vídeo, textoTextoTareas de razonamiento complejas que requieren más inteligencia
Incrustación de Géminis gemini-embedding-expTextoIncrustación de textoMedición de la relevancia de las cadenas de texto
Imagen 3 imagen-3.0-generate-002TextoimagenEl modelo de generación de imágenes más avanzado de Google
Veo 2 veo-2.0-generate-001Texto, imágenesvideoCrea vídeos de alta calidad
Gemini 2.0 Flash Live gemini-2.0-flash-live-001Audio, vídeo, textoTexto, audioInteracción de voz y video bidireccional de baja latencia

Funciones de solicitud HTTP

  • Ejecutar solicitudes HTTP ( mcp_http_request ): comunicarse con API externas utilizando varios métodos HTTP como GET, POST, PUT, DELETE, etc.

Empezar

1. Clonar el repositorio

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Ejecute el contenedor Docker de GraphDB

Inicie el servidor GraphDB ejecutando el siguiente comando desde el directorio raíz del proyecto:

docker-compose up -d

La interfaz web de GraphDB se ejecuta en http://localhost:7200 .

3. Construya y ejecute el servidor MCP

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Importar datos RDF

Vaya a la interfaz web de GraphDB ( http://localhost:7200 ) y haga lo siguiente:

  1. Crear un repositorio:
    • Configuración → Repositorios → Crear nuevo repositorio
    • ID del repositorio: schemaorg-current-https (o cualquier nombre que desee)
    • Título del repositorio: "Schema.org"
    • Haga clic en "Crear"
  2. Obtener datos de muestra:
    • Seleccione el repositorio que ha creado
    • Importar → RDF → Subir archivos RDF
    • Sube un archivo de ejemplo al directorio imports (por ejemplo imports/example.ttl )
    • Haga clic en "Importar"

Nota : El proyecto incluye archivos RDF de ejemplo en el directorio imports .

5. Configuración de Claude Desktop

Para utilizar Ontology MCP en Claude Desktop, debe actualizar el archivo de configuración de MCP:

  1. Abra el archivo de configuración de Claude Desktop:
    • Ventanas: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. Añade las siguientes configuraciones:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

IMPORTANTE : Cambie la ruta en 'args' a la ruta absoluta real al directorio de compilación de su proyecto.

  1. Reiniciar Claude Desktop

Licencia

Este proyecto se proporciona bajo la licencia MIT. Consulte el archivo de LICENCIA para obtener más detalles.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de Protocolo de contexto de modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude, lo que permite a Claude consultar y manipular datos de ontología mientras aprovecha varios modelos de IA.

  1. Características principales
    1. Funciones relacionadas con SPARQL
    2. Características relacionadas con el modelo Ollama
    3. Funciones relacionadas con OpenAI
    4. Funciones relacionadas con Google Gemini
    5. Funciones de solicitud HTTP
  2. Empezar
    1. Clonar el repositorio
    2. Ejecute el contenedor Docker de GraphDB
    3. Construya y ejecute el servidor MCP
    4. Importar datos RDF
    5. Configuración de Claude Desktop
  3. Licencia

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      58
      26
      JavaScript
      MIT License
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      733
      1
      MIT License
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.
      Last updated -
      2
      6
      JavaScript
      GPL 3.0
    • -
      security
      A
      license
      -
      quality
      Allows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.
      Last updated -
      4
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server