Ontologie MCP
Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.

Hauptmerkmale
SPARQL-bezogene Funktionen
SPARQL-Abfrage ausführen (
mcp_sparql_execute_query)Führen Sie eine SPARQL-Update-Abfrage aus (
mcp_sparql_update)Repositorys auflisten (
mcp_sparql_list_repositories)Abfrage der Graphenliste (
mcp_sparql_list_graphs)Ressourceninformationen abrufen (
mcp_sparql_get_resource_info)
Funktionen im Zusammenhang mit dem Ollama-Modell
Führen Sie das Modell aus (
mcp_ollama_run)Modellinformationen prüfen (
mcp_ollama_show)Modell herunterladen (
mcp_ollama_pull)Modellliste abrufen (
mcp_ollama_list)Modell löschen (
mcp_ollama_rm)Chat-Abschluss (
mcp_ollama_chat_completion)Containerstatus prüfen (
mcp_ollama_status)
OpenAI-bezogene Funktionen
Chat abgeschlossen (
mcp_openai_chat)Bild erstellen (
mcp_openai_image)Text-to-Speech (
mcp_openai_tts)Sprache-zu-Text (
mcp_openai_transcribe)Einbettung generieren (
mcp_openai_embedding)
Google Gemini-bezogene Funktionen
Text generieren (
mcp_gemini_generate_text)Chat-Abschluss (
mcp_gemini_chat_completion)Modellliste abrufen (
mcp_gemini_list_models)~~Bilder generieren (
mcp_gemini_generate_images) – Imagen-Modell verwenden~~ (derzeit deaktiviert)~~Videos generieren (
mcp_gemini_generate_videos) – Veo-Modelle verwenden~~ (derzeit deaktiviert)~~Multimodalen Inhalt generieren (
mcp_gemini_generate_multimodal_content)~~ (derzeit deaktiviert)
Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.
Unterstützte Gemini-Modelle
Modelltransformation | Eingang | Leistungsabgabe | Optimierungsziel |
Gemini 2.5 Flash-Vorschau
| Audio, Bilder, Video, Text | Text | Adaptives Denken, Kosteneffizienz |
Gemini 2.5 Pro Vorschau
| Audio, Bilder, Video, Text | Text | Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren |
Gemini 2.0 Flash
| Audio, Bilder, Video, Text | Text, Bilder (experimentell), Audio (demnächst verfügbar) | Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung |
Gemini 2.0 Flash-Lite
| Audio, Bilder, Video, Text | Text | Kostengünstig und mit geringer Latenz |
Gemini 1.5 Flash
| Audio, Bilder, Video, Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B
| Audio, Bilder, Video, Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro
| Audio, Bilder, Video, Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
Gemini-Einbettung
| Text | Texteinbettung | Messen der Relevanz von Textzeichenfolgen |
Bild 3
| Text | Bild | Googles fortschrittlichstes Bildgenerierungsmodell |
Veo 2
| Text, Bilder | Video | Erstellen Sie hochwertige Videos |
Gemini 2.0 Flash Live
| Audio, Video, Text | Text, Audio | Zweiwege-Sprach- und Videointeraktion mit geringer Latenz |
HTTP-Anforderungsfunktionen
Führen Sie HTTP-Anfragen aus (
mcp_http_request) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.
Related MCP server: terraform-cloud-mcp
Erste Schritte
1. Klonen Sie das Repository
2. Führen Sie den GraphDB Docker-Container aus
Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:
Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .
3. Erstellen und Ausführen des MCP-Servers
4. RDF-Daten importieren
Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:
Erstellen Sie ein Repository:
„Setup“ → „Repositorys“ → „Neues Repository erstellen“
Repository-ID:
schemaorg-current-https(oder ein beliebiger Name)Repository-Titel: „Schema.org“
Klicken Sie auf „Erstellen“
Beispieldaten abrufen:
Wählen Sie das von Ihnen erstellte Repository aus
„Importieren“ → „RDF“ → „RDF-Dateien hochladen“
Laden Sie eine Beispieldatei in das
importshoch (z. B.imports/example.ttl).Klicken Sie auf „Importieren“
Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im
imports.
5. Claude Desktop einrichten
Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:
Öffnen Sie die Einstellungsdatei von Claude Desktop:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonLinux:
~/.config/Claude/claude_desktop_config.json
Fügen Sie die folgenden Einstellungen hinzu:
WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.
Starten Sie Claude Desktop neu
Lizenz
Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .