Skip to main content
Glama

Ontologie MCP

Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.

Ontology MCP-Übersicht

Hauptmerkmale

SPARQL-bezogene Funktionen

  • SPARQL-Abfrage ausführen ( mcp_sparql_execute_query )

  • Führen Sie eine SPARQL-Update-Abfrage aus ( mcp_sparql_update )

  • Repositorys auflisten ( mcp_sparql_list_repositories )

  • Abfrage der Graphenliste ( mcp_sparql_list_graphs )

  • Ressourceninformationen abrufen ( mcp_sparql_get_resource_info )

Funktionen im Zusammenhang mit dem Ollama-Modell

  • Führen Sie das Modell aus ( mcp_ollama_run )

  • Modellinformationen prüfen ( mcp_ollama_show )

  • Modell herunterladen ( mcp_ollama_pull )

  • Modellliste abrufen ( mcp_ollama_list )

  • Modell löschen ( mcp_ollama_rm )

  • Chat-Abschluss ( mcp_ollama_chat_completion )

  • Containerstatus prüfen ( mcp_ollama_status )

OpenAI-bezogene Funktionen

  • Chat abgeschlossen ( mcp_openai_chat )

  • Bild erstellen ( mcp_openai_image )

  • Text-to-Speech ( mcp_openai_tts )

  • Sprache-zu-Text ( mcp_openai_transcribe )

  • Einbettung generieren ( mcp_openai_embedding )

Google Gemini-bezogene Funktionen

  • Text generieren ( mcp_gemini_generate_text )

  • Chat-Abschluss ( mcp_gemini_chat_completion )

  • Modellliste abrufen ( mcp_gemini_list_models )

  • ~~Bilder generieren ( mcp_gemini_generate_images ) – Imagen-Modell verwenden~~ (derzeit deaktiviert)

  • ~~Videos generieren ( mcp_gemini_generate_videos ) – Veo-Modelle verwenden~~ (derzeit deaktiviert)

  • ~~Multimodalen Inhalt generieren ( mcp_gemini_generate_multimodal_content )~~ (derzeit deaktiviert)

Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.

Unterstützte Gemini-Modelle

Modelltransformation

Eingang

Leistungsabgabe

Optimierungsziel

Gemini 2.5 Flash-Vorschau gemini-2.5-flash-preview-04-17

Audio, Bilder, Video, Text

Text

Adaptives Denken, Kosteneffizienz

Gemini 2.5 Pro Vorschau gemini-2.5-pro-preview-03-25

Audio, Bilder, Video, Text

Text

Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren

Gemini 2.0 Flash gemini-2.0-flash

Audio, Bilder, Video, Text

Text, Bilder (experimentell), Audio (demnächst verfügbar)

Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung

Gemini 2.0 Flash-Lite gemini-2.0-flash-lite

Audio, Bilder, Video, Text

Text

Kostengünstig und mit geringer Latenz

Gemini 1.5 Flash gemini-1.5-flash

Audio, Bilder, Video, Text

Text

Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben

Gemini 1.5 Flash-8B gemini-1.5-flash-8b

Audio, Bilder, Video, Text

Text

Aufgaben mit hohem Volumen und geringer Intelligenz

Gemini 1.5 Pro gemini-1.5-pro

Audio, Bilder, Video, Text

Text

Komplexe Denkaufgaben, die mehr Intelligenz erfordern

Gemini-Einbettung gemini-embedding-exp

Text

Texteinbettung

Messen der Relevanz von Textzeichenfolgen

Bild 3 imagen-3.0-generate-002

Text

Bild

Googles fortschrittlichstes Bildgenerierungsmodell

Veo 2 veo-2.0-generate-001

Text, Bilder

Video

Erstellen Sie hochwertige Videos

Gemini 2.0 Flash Live gemini-2.0-flash-live-001

Audio, Video, Text

Text, Audio

Zweiwege-Sprach- und Videointeraktion mit geringer Latenz

HTTP-Anforderungsfunktionen

  • Führen Sie HTTP-Anfragen aus ( mcp_http_request ) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.

Related MCP server: terraform-cloud-mcp

Erste Schritte

1. Klonen Sie das Repository

git clone https://github.com/bigdata-coss/agent_mcp.git
cd agent_mcp

2. Führen Sie den GraphDB Docker-Container aus

Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:

docker-compose up -d

Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .

3. Erstellen und Ausführen des MCP-Servers

# 의존성 설치
npm install

# 프로젝트 빌드
npm run build

# 서버 실행 (테스트용, Claude Desktop에서는 필요 없음)
node build/index.js

4. RDF-Daten importieren

Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:

  1. Erstellen Sie ein Repository:

    • „Setup“ → „Repositorys“ → „Neues Repository erstellen“

    • Repository-ID: schemaorg-current-https (oder ein beliebiger Name)

    • Repository-Titel: „Schema.org“

    • Klicken Sie auf „Erstellen“

  2. Beispieldaten abrufen:

    • Wählen Sie das von Ihnen erstellte Repository aus

    • „Importieren“ → „RDF“ → „RDF-Dateien hochladen“

    • Laden Sie eine Beispieldatei in das imports hoch (z. B. imports/example.ttl ).

    • Klicken Sie auf „Importieren“

Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im imports .

5. Claude Desktop einrichten

Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:

  1. Öffnen Sie die Einstellungsdatei von Claude Desktop:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. Fügen Sie die folgenden Einstellungen hinzu:

{
  "mcpServers": {
    "a2a-ontology-mcp": {
      "command": "node",
      "args": ["E:\\codes\\a2a_mcp\\build"],
      "env": {
        "SPARQL_ENDPOINT": "http://localhost:7200",
        "OPENAI_API_KEY": "your-api-key",
        "GEMINI_API_KEY" : "your-api-key"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}

WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.

  1. Starten Sie Claude Desktop neu

Lizenz

Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .

Install Server
A
security – no known vulnerabilities
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server