Ontologie MCP
Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.
Hauptmerkmale
SPARQL-bezogene Funktionen
- SPARQL-Abfrage ausführen (
mcp_sparql_execute_query
) - Führen Sie eine SPARQL-Update-Abfrage aus (
mcp_sparql_update
) - Repositorys auflisten (
mcp_sparql_list_repositories
) - Abfrage der Graphenliste (
mcp_sparql_list_graphs
) - Ressourceninformationen abrufen (
mcp_sparql_get_resource_info
)
Funktionen im Zusammenhang mit dem Ollama-Modell
- Führen Sie das Modell aus (
mcp_ollama_run
) - Modellinformationen prüfen (
mcp_ollama_show
) - Modell herunterladen (
mcp_ollama_pull
) - Modellliste abrufen (
mcp_ollama_list
) - Modell löschen (
mcp_ollama_rm
) - Chat-Abschluss (
mcp_ollama_chat_completion
) - Containerstatus prüfen (
mcp_ollama_status
)
OpenAI-bezogene Funktionen
- Chat abgeschlossen (
mcp_openai_chat
) - Bild erstellen (
mcp_openai_image
) - Text-to-Speech (
mcp_openai_tts
) - Sprache-zu-Text (
mcp_openai_transcribe
) - Einbettung generieren (
mcp_openai_embedding
)
Google Gemini-bezogene Funktionen
- Text generieren (
mcp_gemini_generate_text
) - Chat-Abschluss (
mcp_gemini_chat_completion
) - Modellliste abrufen (
mcp_gemini_list_models
) - ~~Bilder generieren (
mcp_gemini_generate_images
) – Imagen-Modell verwenden~~ (derzeit deaktiviert) - ~~Videos generieren (
mcp_gemini_generate_videos
) – Veo-Modelle verwenden~~ (derzeit deaktiviert) - ~~Multimodalen Inhalt generieren (
mcp_gemini_generate_multimodal_content
)~~ (derzeit deaktiviert)
Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.
Unterstützte Gemini-Modelle
Modelltransformation | Eingang | Leistungsabgabe | Optimierungsziel |
---|---|---|---|
Gemini 2.5 Flash-Vorschau gemini-2.5-flash-preview-04-17 | Audio, Bilder, Video, Text | Text | Adaptives Denken, Kosteneffizienz |
Gemini 2.5 Pro Vorschau gemini-2.5-pro-preview-03-25 | Audio, Bilder, Video, Text | Text | Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren |
Gemini 2.0 Flash gemini-2.0-flash | Audio, Bilder, Video, Text | Text, Bilder (experimentell), Audio (demnächst verfügbar) | Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Audio, Bilder, Video, Text | Text | Kostengünstig und mit geringer Latenz |
Gemini 1.5 Flash gemini-1.5-flash | Audio, Bilder, Video, Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B gemini-1.5-flash-8b | Audio, Bilder, Video, Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro gemini-1.5-pro | Audio, Bilder, Video, Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
Gemini-Einbettung gemini-embedding-exp | Text | Texteinbettung | Messen der Relevanz von Textzeichenfolgen |
Bild 3 imagen-3.0-generate-002 | Text | Bild | Googles fortschrittlichstes Bildgenerierungsmodell |
Veo 2 veo-2.0-generate-001 | Text, Bilder | Video | Erstellen Sie hochwertige Videos |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Audio, Video, Text | Text, Audio | Zweiwege-Sprach- und Videointeraktion mit geringer Latenz |
HTTP-Anforderungsfunktionen
- Führen Sie HTTP-Anfragen aus (
mcp_http_request
) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.
Erste Schritte
1. Klonen Sie das Repository
2. Führen Sie den GraphDB Docker-Container aus
Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:
Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .
3. Erstellen und Ausführen des MCP-Servers
4. RDF-Daten importieren
Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:
- Erstellen Sie ein Repository:
- „Setup“ → „Repositorys“ → „Neues Repository erstellen“
- Repository-ID:
schemaorg-current-https
(oder ein beliebiger Name) - Repository-Titel: „Schema.org“
- Klicken Sie auf „Erstellen“
- Beispieldaten abrufen:
- Wählen Sie das von Ihnen erstellte Repository aus
- „Importieren“ → „RDF“ → „RDF-Dateien hochladen“
- Laden Sie eine Beispieldatei in das
imports
hoch (z. B.imports/example.ttl
). - Klicken Sie auf „Importieren“
Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im
imports
.
5. Claude Desktop einrichten
Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:
- Öffnen Sie die Einstellungsdatei von Claude Desktop:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- Fügen Sie die folgenden Einstellungen hinzu:
WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.
- Starten Sie Claude Desktop neu
Lizenz
Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.
Related MCP Servers
- -securityAlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -5826JavaScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -7331MIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.Last updated -26JavaScriptGPL 3.0
FalkorDB MCP Serverofficial
-securityAlicense-qualityAllows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.Last updated -4TypeScriptMIT License