Uses Docker to run GraphDB and provide SPARQL endpoint functionality
Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants
Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion
Ontologie MCP
Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.
Hauptmerkmale
SPARQL-bezogene Funktionen
- SPARQL-Abfrage ausführen (
mcp_sparql_execute_query
) - Führen Sie eine SPARQL-Update-Abfrage aus (
mcp_sparql_update
) - Repositorys auflisten (
mcp_sparql_list_repositories
) - Abfrage der Graphenliste (
mcp_sparql_list_graphs
) - Ressourceninformationen abrufen (
mcp_sparql_get_resource_info
)
Funktionen im Zusammenhang mit dem Ollama-Modell
- Führen Sie das Modell aus (
mcp_ollama_run
) - Modellinformationen prüfen (
mcp_ollama_show
) - Modell herunterladen (
mcp_ollama_pull
) - Modellliste abrufen (
mcp_ollama_list
) - Modell löschen (
mcp_ollama_rm
) - Chat-Abschluss (
mcp_ollama_chat_completion
) - Containerstatus prüfen (
mcp_ollama_status
)
OpenAI-bezogene Funktionen
- Chat abgeschlossen (
mcp_openai_chat
) - Bild erstellen (
mcp_openai_image
) - Text-to-Speech (
mcp_openai_tts
) - Sprache-zu-Text (
mcp_openai_transcribe
) - Einbettung generieren (
mcp_openai_embedding
)
Google Gemini-bezogene Funktionen
- Text generieren (
mcp_gemini_generate_text
) - Chat-Abschluss (
mcp_gemini_chat_completion
) - Modellliste abrufen (
mcp_gemini_list_models
) - ~~Bilder generieren (
mcp_gemini_generate_images
) – Imagen-Modell verwenden~~ (derzeit deaktiviert) - ~~Videos generieren (
mcp_gemini_generate_videos
) – Veo-Modelle verwenden~~ (derzeit deaktiviert) - ~~Multimodalen Inhalt generieren (
mcp_gemini_generate_multimodal_content
)~~ (derzeit deaktiviert)
Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.
Unterstützte Gemini-Modelle
Modelltransformation | Eingang | Leistungsabgabe | Optimierungsziel |
---|---|---|---|
Gemini 2.5 Flash-Vorschau gemini-2.5-flash-preview-04-17 | Audio, Bilder, Video, Text | Text | Adaptives Denken, Kosteneffizienz |
Gemini 2.5 Pro Vorschau gemini-2.5-pro-preview-03-25 | Audio, Bilder, Video, Text | Text | Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren |
Gemini 2.0 Flash gemini-2.0-flash | Audio, Bilder, Video, Text | Text, Bilder (experimentell), Audio (demnächst verfügbar) | Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Audio, Bilder, Video, Text | Text | Kostengünstig und mit geringer Latenz |
Gemini 1.5 Flash gemini-1.5-flash | Audio, Bilder, Video, Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B gemini-1.5-flash-8b | Audio, Bilder, Video, Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro gemini-1.5-pro | Audio, Bilder, Video, Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
Gemini-Einbettung gemini-embedding-exp | Text | Texteinbettung | Messen der Relevanz von Textzeichenfolgen |
Bild 3 imagen-3.0-generate-002 | Text | Bild | Googles fortschrittlichstes Bildgenerierungsmodell |
Veo 2 veo-2.0-generate-001 | Text, Bilder | Video | Erstellen Sie hochwertige Videos |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Audio, Video, Text | Text, Audio | Zweiwege-Sprach- und Videointeraktion mit geringer Latenz |
HTTP-Anforderungsfunktionen
- Führen Sie HTTP-Anfragen aus (
mcp_http_request
) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.
Erste Schritte
1. Klonen Sie das Repository
2. Führen Sie den GraphDB Docker-Container aus
Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:
Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .
3. Erstellen und Ausführen des MCP-Servers
4. RDF-Daten importieren
Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:
- Erstellen Sie ein Repository:
- „Setup“ → „Repositorys“ → „Neues Repository erstellen“
- Repository-ID:
schemaorg-current-https
(oder ein beliebiger Name) - Repository-Titel: „Schema.org“
- Klicken Sie auf „Erstellen“
- Beispieldaten abrufen:
- Wählen Sie das von Ihnen erstellte Repository aus
- „Importieren“ → „RDF“ → „RDF-Dateien hochladen“
- Laden Sie eine Beispieldatei in das
imports
hoch (z. B.imports/example.ttl
). - Klicken Sie auf „Importieren“
Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im
imports
.
5. Claude Desktop einrichten
Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:
- Öffnen Sie die Einstellungsdatei von Claude Desktop:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- Fügen Sie die folgenden Einstellungen hinzu:
WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.
- Starten Sie Claude Desktop neu
Lizenz
Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.
Related MCP Servers
- -securityFlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -141JavaScript
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -5361MIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.Last updated -24JavaScriptGPL 3.0
FalkorDB MCP Serverofficial
-securityAlicense-qualityAllows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.Last updated -4TypeScriptMIT License