hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Uses Docker to run GraphDB and provide SPARQL endpoint functionality
Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants
Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion
Ontología MCP
Ontology MCP es un servidor de Protocolo de Contexto de Modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude. Esta herramienta le permite a Claude consultar y manipular datos ontológicos y aprovechar varios modelos de IA.
Características principales
Funciones relacionadas con SPARQL
- Ejecutar consulta SPARQL (
mcp_sparql_execute_query
) - Ejecutar consulta de actualización SPARQL (
mcp_sparql_update
) - Lista de repositorios (
mcp_sparql_list_repositories
) - Consultar la lista de gráficos (
mcp_sparql_list_graphs
) - Obtener información de recursos (
mcp_sparql_get_resource_info
)
Características relacionadas con el modelo Ollama
- Ejecutar el modelo (
mcp_ollama_run
) - Comprobar la información del modelo (
mcp_ollama_show
) - Descargar modelo (
mcp_ollama_pull
) - Obtener la lista de modelos (
mcp_ollama_list
) - Eliminar modelo (
mcp_ollama_rm
) - Finalización del chat (
mcp_ollama_chat_completion
) - Comprobar el estado del contenedor (
mcp_ollama_status
)
Funciones relacionadas con OpenAI
- Chat completado (
mcp_openai_chat
) - Crear imagen (
mcp_openai_image
) - Texto a voz (
mcp_openai_tts
) - Conversión de voz a texto (
mcp_openai_transcribe
) - Generar incrustación (
mcp_openai_embedding
)
Funciones relacionadas con Google Gemini
- Generar texto (
mcp_gemini_generate_text
) - Finalización del chat (
mcp_gemini_chat_completion
) - Obtener la lista de modelos (
mcp_gemini_list_models
) - ~~Generar imágenes (
mcp_gemini_generate_images
) - Usando el modelo Imagen~~ (actualmente deshabilitado) - ~~Generar videos (
mcp_gemini_generate_videos
) - Usando modelos Veo~~ (actualmente deshabilitado) - ~~Generar contenido multimodal (
mcp_gemini_generate_multimodal_content
)~~ (actualmente deshabilitado)
Nota : Las funciones de creación de imágenes, creación de videos y creación de contenido multimodal de Gemini están actualmente deshabilitadas debido a problemas de compatibilidad de API.
Modelos Gemini compatibles
Transformación del modelo | aporte | salida de potencia | Objetivo de optimización |
---|---|---|---|
Vista previa de Flash de Gemini 2.5 gemini-2.5-flash-preview-04-17 | Audio, imágenes, vídeo, texto | Texto | Pensamiento adaptativo, rentabilidad |
Vista previa de Gemini 2.5 Pro gemini-2.5-pro-preview-03-25 | Audio, imágenes, vídeo, texto | Texto | Pensamiento y razonamiento mejorados, comprensión multimodal, codificación avanzada |
Gemini 2.0 Flash gemini-2.0-flash | Audio, imágenes, vídeo, texto | Texto, imágenes (experimentales), audio (próximamente) | Capacidades de próxima generación, velocidad, pensamiento, transmisión en tiempo real, creación multimodal |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Audio, imágenes, vídeo, texto | Texto | Rentable y de baja latencia |
Gemini 1.5 Flash gemini-1.5-flash | Audio, imágenes, vídeo, texto | Texto | Rendimiento rápido y versátil para una variedad de tareas. |
Géminis 1.5 Flash-8B gemini-1.5-flash-8b | Audio, imágenes, vídeo, texto | Texto | Tareas de alto volumen y baja inteligencia |
Géminis 1.5 Pro gemini-1.5-pro | Audio, imágenes, vídeo, texto | Texto | Tareas de razonamiento complejas que requieren más inteligencia |
Incrustación de Géminis gemini-embedding-exp | Texto | Incrustación de texto | Medición de la relevancia de las cadenas de texto |
Imagen 3 imagen-3.0-generate-002 | Texto | imagen | El modelo de generación de imágenes más avanzado de Google |
Veo 2 veo-2.0-generate-001 | Texto, imágenes | video | Crea vídeos de alta calidad |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Audio, vídeo, texto | Texto, audio | Interacción de voz y video bidireccional de baja latencia |
Funciones de solicitud HTTP
- Ejecutar solicitudes HTTP (
mcp_http_request
): comunicarse con API externas utilizando varios métodos HTTP como GET, POST, PUT, DELETE, etc.
Empezar
1. Clonar el repositorio
2. Ejecute el contenedor Docker de GraphDB
Inicie el servidor GraphDB ejecutando el siguiente comando desde el directorio raíz del proyecto:
La interfaz web de GraphDB se ejecuta en http://localhost:7200 .
3. Construya y ejecute el servidor MCP
4. Importar datos RDF
Vaya a la interfaz web de GraphDB ( http://localhost:7200 ) y haga lo siguiente:
- Crear un repositorio:
- Configuración → Repositorios → Crear nuevo repositorio
- ID del repositorio:
schemaorg-current-https
(o cualquier nombre que desee) - Título del repositorio: "Schema.org"
- Haga clic en "Crear"
- Obtener datos de muestra:
- Seleccione el repositorio que ha creado
- Importar → RDF → Subir archivos RDF
- Sube un archivo de ejemplo al directorio
imports
(por ejemploimports/example.ttl
) - Haga clic en "Importar"
Nota : El proyecto incluye archivos RDF de ejemplo en el directorio
imports
.
5. Configuración de Claude Desktop
Para utilizar Ontology MCP en Claude Desktop, debe actualizar el archivo de configuración de MCP:
- Abra el archivo de configuración de Claude Desktop:
- Ventanas:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Ventanas:
- Añade las siguientes configuraciones:
IMPORTANTE : Cambie la ruta en 'args' a la ruta absoluta real al directorio de compilación de su proyecto.
- Reiniciar Claude Desktop
Licencia
Este proyecto se proporciona bajo la licencia MIT. Consulte el archivo de LICENCIA para obtener más detalles.
You must be authenticated.
Tools
Un servidor de Protocolo de contexto de modelo (MCP) que conecta los puntos finales SPARQL de GraphDB y los modelos Ollama a Claude, lo que permite a Claude consultar y manipular datos de ontología mientras aprovecha varios modelos de IA.