Ontologie MCP
Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.
Hauptmerkmale
SPARQL-bezogene Funktionen
SPARQL-Abfrage ausführen (
mcp_sparql_execute_query
)Führen Sie eine SPARQL-Update-Abfrage aus (
mcp_sparql_update
)Repositorys auflisten (
mcp_sparql_list_repositories
)Abfrage der Graphenliste (
mcp_sparql_list_graphs
)Ressourceninformationen abrufen (
mcp_sparql_get_resource_info
)
Funktionen im Zusammenhang mit dem Ollama-Modell
Führen Sie das Modell aus (
mcp_ollama_run
)Modellinformationen prüfen (
mcp_ollama_show
)Modell herunterladen (
mcp_ollama_pull
)Modellliste abrufen (
mcp_ollama_list
)Modell löschen (
mcp_ollama_rm
)Chat-Abschluss (
mcp_ollama_chat_completion
)Containerstatus prüfen (
mcp_ollama_status
)
OpenAI-bezogene Funktionen
Chat abgeschlossen (
mcp_openai_chat
)Bild erstellen (
mcp_openai_image
)Text-to-Speech (
mcp_openai_tts
)Sprache-zu-Text (
mcp_openai_transcribe
)Einbettung generieren (
mcp_openai_embedding
)
Google Gemini-bezogene Funktionen
Text generieren (
mcp_gemini_generate_text
)Chat-Abschluss (
mcp_gemini_chat_completion
)Modellliste abrufen (
mcp_gemini_list_models
)~~Bilder generieren (
mcp_gemini_generate_images
) – Imagen-Modell verwenden~~ (derzeit deaktiviert)~~Videos generieren (
mcp_gemini_generate_videos
) – Veo-Modelle verwenden~~ (derzeit deaktiviert)~~Multimodalen Inhalt generieren (
mcp_gemini_generate_multimodal_content
)~~ (derzeit deaktiviert)
Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.
Unterstützte Gemini-Modelle
Modelltransformation | Eingang | Leistungsabgabe | Optimierungsziel |
Gemini 2.5 Flash-Vorschau
| Audio, Bilder, Video, Text | Text | Adaptives Denken, Kosteneffizienz |
Gemini 2.5 Pro Vorschau
| Audio, Bilder, Video, Text | Text | Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren |
Gemini 2.0 Flash
| Audio, Bilder, Video, Text | Text, Bilder (experimentell), Audio (demnächst verfügbar) | Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung |
Gemini 2.0 Flash-Lite
| Audio, Bilder, Video, Text | Text | Kostengünstig und mit geringer Latenz |
Gemini 1.5 Flash
| Audio, Bilder, Video, Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B
| Audio, Bilder, Video, Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro
| Audio, Bilder, Video, Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
Gemini-Einbettung
| Text | Texteinbettung | Messen der Relevanz von Textzeichenfolgen |
Bild 3
| Text | Bild | Googles fortschrittlichstes Bildgenerierungsmodell |
Veo 2
| Text, Bilder | Video | Erstellen Sie hochwertige Videos |
Gemini 2.0 Flash Live
| Audio, Video, Text | Text, Audio | Zweiwege-Sprach- und Videointeraktion mit geringer Latenz |
HTTP-Anforderungsfunktionen
Führen Sie HTTP-Anfragen aus (
mcp_http_request
) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.
Erste Schritte
1. Klonen Sie das Repository
2. Führen Sie den GraphDB Docker-Container aus
Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:
Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .
3. Erstellen und Ausführen des MCP-Servers
4. RDF-Daten importieren
Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:
Erstellen Sie ein Repository:
„Setup“ → „Repositorys“ → „Neues Repository erstellen“
Repository-ID:
schemaorg-current-https
(oder ein beliebiger Name)Repository-Titel: „Schema.org“
Klicken Sie auf „Erstellen“
Beispieldaten abrufen:
Wählen Sie das von Ihnen erstellte Repository aus
„Importieren“ → „RDF“ → „RDF-Dateien hochladen“
Laden Sie eine Beispieldatei in das
imports
hoch (z. B.imports/example.ttl
).Klicken Sie auf „Importieren“
Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im
imports
.
5. Claude Desktop einrichten
Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:
Öffnen Sie die Einstellungsdatei von Claude Desktop:
Windows:
%AppData%\Claude\claude_desktop_config.json
macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
Linux:
~/.config/Claude/claude_desktop_config.json
Fügen Sie die folgenden Einstellungen hinzu:
WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.
Starten Sie Claude Desktop neu
Lizenz
Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.
Related MCP Servers
- -securityAlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -1742MIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.Last updated -6217MIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.Last updated -32MIT License
- AsecurityFlicenseAqualityA Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.Last updated -73291