Ontology MCP

by bigdata-coss
Integrations
  • Uses Docker to run GraphDB and provide SPARQL endpoint functionality

  • Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants

  • Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion

Ontologie MCP

Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.

Hauptmerkmale

SPARQL-bezogene Funktionen

  • SPARQL-Abfrage ausführen ( mcp_sparql_execute_query )
  • Führen Sie eine SPARQL-Update-Abfrage aus ( mcp_sparql_update )
  • Repositorys auflisten ( mcp_sparql_list_repositories )
  • Abfrage der Graphenliste ( mcp_sparql_list_graphs )
  • Ressourceninformationen abrufen ( mcp_sparql_get_resource_info )

Funktionen im Zusammenhang mit dem Ollama-Modell

  • Führen Sie das Modell aus ( mcp_ollama_run )
  • Modellinformationen prüfen ( mcp_ollama_show )
  • Modell herunterladen ( mcp_ollama_pull )
  • Modellliste abrufen ( mcp_ollama_list )
  • Modell löschen ( mcp_ollama_rm )
  • Chat-Abschluss ( mcp_ollama_chat_completion )
  • Containerstatus prüfen ( mcp_ollama_status )

OpenAI-bezogene Funktionen

  • Chat abgeschlossen ( mcp_openai_chat )
  • Bild erstellen ( mcp_openai_image )
  • Text-to-Speech ( mcp_openai_tts )
  • Sprache-zu-Text ( mcp_openai_transcribe )
  • Einbettung generieren ( mcp_openai_embedding )

Google Gemini-bezogene Funktionen

  • Text generieren ( mcp_gemini_generate_text )
  • Chat-Abschluss ( mcp_gemini_chat_completion )
  • Modellliste abrufen ( mcp_gemini_list_models )
  • ~~Bilder generieren ( mcp_gemini_generate_images ) – Imagen-Modell verwenden~~ (derzeit deaktiviert)
  • ~~Videos generieren ( mcp_gemini_generate_videos ) – Veo-Modelle verwenden~~ (derzeit deaktiviert)
  • ~~Multimodalen Inhalt generieren ( mcp_gemini_generate_multimodal_content )~~ (derzeit deaktiviert)

Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.

Unterstützte Gemini-Modelle
ModelltransformationEingangLeistungsabgabeOptimierungsziel
Gemini 2.5 Flash-Vorschau gemini-2.5-flash-preview-04-17Audio, Bilder, Video, TextTextAdaptives Denken, Kosteneffizienz
Gemini 2.5 Pro Vorschau gemini-2.5-pro-preview-03-25Audio, Bilder, Video, TextTextVerbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren
Gemini 2.0 Flash gemini-2.0-flashAudio, Bilder, Video, TextText, Bilder (experimentell), Audio (demnächst verfügbar)Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung
Gemini 2.0 Flash-Lite gemini-2.0-flash-liteAudio, Bilder, Video, TextTextKostengünstig und mit geringer Latenz
Gemini 1.5 Flash gemini-1.5-flashAudio, Bilder, Video, TextTextSchnelle und vielseitige Leistung für eine Vielzahl von Aufgaben
Gemini 1.5 Flash-8B gemini-1.5-flash-8bAudio, Bilder, Video, TextTextAufgaben mit hohem Volumen und geringer Intelligenz
Gemini 1.5 Pro gemini-1.5-proAudio, Bilder, Video, TextTextKomplexe Denkaufgaben, die mehr Intelligenz erfordern
Gemini-Einbettung gemini-embedding-expTextTexteinbettungMessen der Relevanz von Textzeichenfolgen
Bild 3 imagen-3.0-generate-002TextBildGoogles fortschrittlichstes Bildgenerierungsmodell
Veo 2 veo-2.0-generate-001Text, BilderVideoErstellen Sie hochwertige Videos
Gemini 2.0 Flash Live gemini-2.0-flash-live-001Audio, Video, TextText, AudioZweiwege-Sprach- und Videointeraktion mit geringer Latenz

HTTP-Anforderungsfunktionen

  • Führen Sie HTTP-Anfragen aus ( mcp_http_request ) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.

Erste Schritte

1. Klonen Sie das Repository

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Führen Sie den GraphDB Docker-Container aus

Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:

docker-compose up -d

Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .

3. Erstellen und Ausführen des MCP-Servers

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. RDF-Daten importieren

Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:

  1. Erstellen Sie ein Repository:
    • „Setup“ → „Repositorys“ → „Neues Repository erstellen“
    • Repository-ID: schemaorg-current-https (oder ein beliebiger Name)
    • Repository-Titel: „Schema.org“
    • Klicken Sie auf „Erstellen“
  2. Beispieldaten abrufen:
    • Wählen Sie das von Ihnen erstellte Repository aus
    • „Importieren“ → „RDF“ → „RDF-Dateien hochladen“
    • Laden Sie eine Beispieldatei in das imports hoch (z. B. imports/example.ttl ).
    • Klicken Sie auf „Importieren“

Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im imports .

5. Claude Desktop einrichten

Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:

  1. Öffnen Sie die Einstellungsdatei von Claude Desktop:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. Fügen Sie die folgenden Einstellungen hinzu:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.

  1. Starten Sie Claude Desktop neu

Lizenz

Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.

  1. Hauptmerkmale
    1. SPARQL-bezogene Funktionen
    2. Funktionen im Zusammenhang mit dem Ollama-Modell
    3. OpenAI-bezogene Funktionen
    4. Google Gemini-bezogene Funktionen
    5. HTTP-Anforderungsfunktionen
  2. Erste Schritte
    1. Klonen Sie das Repository
    2. Führen Sie den GraphDB Docker-Container aus
    3. Erstellen und Ausführen des MCP-Servers
    4. RDF-Daten importieren
    5. Claude Desktop einrichten
  3. Lizenz

    Related MCP Servers

    • -
      security
      F
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      14
      1
      JavaScript
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      536
      1
      MIT License
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.
      Last updated -
      2
      4
      JavaScript
      GPL 3.0
    • -
      security
      A
      license
      -
      quality
      Allows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.
      Last updated -
      4
      TypeScript
      MIT License

    View all related MCP servers

    ID: mxvujkgabm