Skip to main content
Glama

Ontología MCP

Ontology MCP es un servidor de Protocolo de Contexto de Modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude. Esta herramienta le permite a Claude consultar y manipular datos ontológicos y aprovechar varios modelos de IA.

Descripción general de Ontology MCP

Características principales

Funciones relacionadas con SPARQL

  • Ejecutar consulta SPARQL ( mcp_sparql_execute_query )

  • Ejecutar consulta de actualización SPARQL ( mcp_sparql_update )

  • Lista de repositorios ( mcp_sparql_list_repositories )

  • Consultar la lista de gráficos ( mcp_sparql_list_graphs )

  • Obtener información de recursos ( mcp_sparql_get_resource_info )

Características relacionadas con el modelo Ollama

  • Ejecutar el modelo ( mcp_ollama_run )

  • Comprobar la información del modelo ( mcp_ollama_show )

  • Descargar modelo ( mcp_ollama_pull )

  • Obtener la lista de modelos ( mcp_ollama_list )

  • Eliminar modelo ( mcp_ollama_rm )

  • Finalización del chat ( mcp_ollama_chat_completion )

  • Comprobar el estado del contenedor ( mcp_ollama_status )

Funciones relacionadas con OpenAI

  • Chat completado ( mcp_openai_chat )

  • Crear imagen ( mcp_openai_image )

  • Texto a voz ( mcp_openai_tts )

  • Conversión de voz a texto ( mcp_openai_transcribe )

  • Generar incrustación ( mcp_openai_embedding )

Funciones relacionadas con Google Gemini

  • Generar texto ( mcp_gemini_generate_text )

  • Finalización del chat ( mcp_gemini_chat_completion )

  • Obtener la lista de modelos ( mcp_gemini_list_models )

  • ~~Generar imágenes ( mcp_gemini_generate_images ) - Usando el modelo Imagen~~ (actualmente deshabilitado)

  • ~~Generar videos ( mcp_gemini_generate_videos ) - Usando modelos Veo~~ (actualmente deshabilitado)

  • ~~Generar contenido multimodal ( mcp_gemini_generate_multimodal_content )~~ (actualmente deshabilitado)

Nota : Las funciones de creación de imágenes, creación de videos y creación de contenido multimodal de Gemini están actualmente deshabilitadas debido a problemas de compatibilidad de API.

Modelos Gemini compatibles

Transformación del modelo

aporte

salida de potencia

Objetivo de optimización

Vista previa de Flash de Gemini 2.5

gemini-2.5-flash-preview-04-17

Audio, imágenes, vídeo, texto

Texto

Pensamiento adaptativo, rentabilidad

Vista previa de Gemini 2.5 Pro

gemini-2.5-pro-preview-03-25

Audio, imágenes, vídeo, texto

Texto

Pensamiento y razonamiento mejorados, comprensión multimodal, codificación avanzada

Gemini 2.0 Flash

gemini-2.0-flash

Audio, imágenes, vídeo, texto

Texto, imágenes (experimentales), audio (próximamente)

Capacidades de próxima generación, velocidad, pensamiento, transmisión en tiempo real, creación multimodal

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

Audio, imágenes, vídeo, texto

Texto

Rentable y de baja latencia

Gemini 1.5 Flash

gemini-1.5-flash

Audio, imágenes, vídeo, texto

Texto

Rendimiento rápido y versátil para una variedad de tareas.

Géminis 1.5 Flash-8B

gemini-1.5-flash-8b

Audio, imágenes, vídeo, texto

Texto

Tareas de alto volumen y baja inteligencia

Géminis 1.5 Pro

gemini-1.5-pro

Audio, imágenes, vídeo, texto

Texto

Tareas de razonamiento complejas que requieren más inteligencia

Incrustación de Géminis

gemini-embedding-exp

Texto

Incrustación de texto

Medición de la relevancia de las cadenas de texto

Imagen 3

imagen-3.0-generate-002

Texto

imagen

El modelo de generación de imágenes más avanzado de Google

Veo 2

veo-2.0-generate-001

Texto, imágenes

video

Crea vídeos de alta calidad

Gemini 2.0 Flash Live

gemini-2.0-flash-live-001

Audio, vídeo, texto

Texto, audio

Interacción de voz y video bidireccional de baja latencia

Funciones de solicitud HTTP

  • Ejecutar solicitudes HTTP ( mcp_http_request ): comunicarse con API externas utilizando varios métodos HTTP como GET, POST, PUT, DELETE, etc.

Related MCP server: terraform-cloud-mcp

Empezar

1. Clonar el repositorio

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Ejecute el contenedor Docker de GraphDB

Inicie el servidor GraphDB ejecutando el siguiente comando desde el directorio raíz del proyecto:

docker-compose up -d

La interfaz web de GraphDB se ejecuta en http://localhost:7200 .

3. Construya y ejecute el servidor MCP

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Importar datos RDF

Vaya a la interfaz web de GraphDB ( http://localhost:7200 ) y haga lo siguiente:

  1. Crear un repositorio:

    • Configuración → Repositorios → Crear nuevo repositorio

    • ID del repositorio: schemaorg-current-https (o cualquier nombre que desee)

    • Título del repositorio: "Schema.org"

    • Haga clic en "Crear"

  2. Obtener datos de muestra:

    • Seleccione el repositorio que ha creado

    • Importar → RDF → Subir archivos RDF

    • Sube un archivo de ejemplo al directorio imports (por ejemplo imports/example.ttl )

    • Haga clic en "Importar"

Nota : El proyecto incluye archivos RDF de ejemplo en el directorio imports .

5. Configuración de Claude Desktop

Para utilizar Ontology MCP en Claude Desktop, debe actualizar el archivo de configuración de MCP:

  1. Abra el archivo de configuración de Claude Desktop:

    • Ventanas: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. Añade las siguientes configuraciones:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

IMPORTANTE : Cambie la ruta en 'args' a la ruta absoluta real al directorio de compilación de su proyecto.

  1. Reiniciar Claude Desktop

Licencia

Este proyecto se proporciona bajo la licencia MIT. Consulte el archivo de LICENCIA para obtener más detalles.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server