Ontology MCP

by bigdata-coss
Integrations
  • Uses Docker to run GraphDB and provide SPARQL endpoint functionality

  • Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants

  • Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion

Онтология MCP

Ontology MCP — это сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude. Этот инструмент позволяет Клоду запрашивать и обрабатывать данные онтологии, а также использовать различные модели ИИ.

Основные характеристики

Функции, связанные со SPARQL

  • Выполнить запрос SPARQL ( mcp_sparql_execute_query )
  • Выполнить запрос на обновление SPARQL ( mcp_sparql_update )
  • Список репозиториев ( mcp_sparql_list_repositories )
  • Запрос списка графов ( mcp_sparql_list_graphs )
  • Получить информацию о ресурсе ( mcp_sparql_get_resource_info )

Особенности, связанные с моделью Ollama

  • Запустить модель ( mcp_ollama_run )
  • Проверить информацию о модели ( mcp_ollama_show )
  • Скачать модель ( mcp_ollama_pull )
  • Получить список моделей ( mcp_ollama_list )
  • Удалить модель ( mcp_ollama_rm )
  • Завершение чата ( mcp_ollama_chat_completion )
  • Проверить статус контейнера ( mcp_ollama_status )

Функции, связанные с OpenAI

  • Чат завершен ( mcp_openai_chat )
  • Создать изображение ( mcp_openai_image )
  • Преобразование текста в речь ( mcp_openai_tts )
  • Преобразование речи в текст ( mcp_openai_transcribe )
  • Сгенерировать встраивание ( mcp_openai_embedding )

Функции, связанные с Google Gemini

  • Сгенерировать текст ( mcp_gemini_generate_text )
  • Завершение чата ( mcp_gemini_chat_completion )
  • Получить список моделей ( mcp_gemini_list_models )
  • ~~Создание изображений ( mcp_gemini_generate_images ) - с использованием модели Imagen~~ (в настоящее время отключено)
  • ~~Создание видео ( mcp_gemini_generate_videos ) - Использование моделей Veo~~ (в настоящее время отключено)
  • ~~Создание мультимодального контента ( mcp_gemini_generate_multimodal_content )~~ (в настоящее время отключено)

Примечание : функции создания изображений, видео и мультимодального контента Gemini в настоящее время отключены из-за проблем совместимости API.

Поддерживаемые модели Gemini
Трансформация моделивходвыходная мощностьЦель оптимизации
Gemini 2.5 Flash Предварительный просмотр gemini-2.5-flash-preview-04-17Аудио, изображения, видео, текстТекстАдаптивное мышление, экономическая эффективность
Gemini 2.5 Pro Предварительный просмотр gemini-2.5-pro-preview-03-25Аудио, изображения, видео, текстТекстУлучшенное мышление и рассуждение, мультимодальное понимание, расширенное кодирование
Gemini 2.0 Flashgemini gemini-2.0-flashАудио, изображения, видео, текстТекст, изображения (экспериментально), аудио (скоро)Возможности следующего поколения, скорость, мышление, потоковая передача в реальном времени, мультимодальное создание
Gemini 2.0 Flash-Lite gemini-2.0-flash-liteАудио, изображения, видео, текстТекстЭкономичность и низкая задержка
Близнецы 1.5 Флэш gemini-1.5-flashАудио, изображения, видео, текстТекстБыстрая и универсальная производительность для различных задач
Близнецы 1.5 Флэш-8Б gemini-1.5-flash-8bАудио, изображения, видео, текстТекстЗадачи большого объема и низкого уровня интеллекта
Близнецы 1.5 Pro gemini-1.5-proАудио, изображения, видео, текстТекстСложные задачи на рассуждение, требующие большего интеллекта
Gemini встраивание gemini-embedding-expТекстВстраивание текстаИзмерение релевантности текстовых строк
Изображение 3 imagen-3.0-generate-002ТекстизображениеСамая передовая модель генерации изображений от Google
Veo 2 veo-2.0-generate-001Текст, ИзображениявидеоСоздавайте высококачественные видео
Gemini 2.0 Flash Live gemini-2.0-flash-live-001Аудио, видео, текстТекст, АудиоДвустороннее голосовое и видео взаимодействие с малой задержкой

Функции HTTP-запроса

  • Выполнение HTTP-запросов ( mcp_http_request ) — взаимодействие с внешними API с использованием различных HTTP-методов, таких как GET, POST, PUT, DELETE и т. д.

Начать

1. Клонировать репозиторий

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Запустите Docker-контейнер GraphDB.

Запустите сервер GraphDB, выполнив следующую команду из корневого каталога проекта:

docker-compose up -d

Веб-интерфейс GraphDB работает по адресу http://localhost:7200 .

3. Соберите и запустите сервер MCP.

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Импорт RDF-данных

Перейдите в веб-интерфейс GraphDB ( http://localhost:7200 ) и выполните следующие действия:

  1. Создать репозиторий:
    • «Настройка» → «Репозитории» → «Создать новый репозиторий»
    • Идентификатор репозитория: schemaorg-current-https (или любое другое имя по вашему желанию)
    • Название репозитория: «Schema.org»
    • Нажмите «Создать»
  2. Получить образец данных:
    • Выберите созданный вами репозиторий.
    • «Импорт» → «RDF» → «Загрузить файлы RDF»
    • Загрузите пример файла в каталог imports (например, imports/example.ttl )
    • Нажмите «Импорт».

Примечание : проект включает примеры RDF-файлов в каталоге imports .

5. Настройка Claude Desktop

Чтобы использовать Ontology MCP в Claude Desktop, необходимо обновить файл настроек MCP:

  1. Откройте файл настроек Claude Desktop:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. Добавьте следующие настройки:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

ВАЖНО : Измените путь в `args' на фактический абсолютный путь к каталогу сборки вашего проекта.

  1. Перезагрузить рабочий стол Клода

Лицензия

Данный проект предоставляется по лицензии MIT. Подробную информацию смотрите в файле ЛИЦЕНЗИЯ .

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude, позволяя Claude запрашивать и обрабатывать данные онтологии, используя различные модели ИИ.

  1. Основные характеристики
    1. Функции, связанные со SPARQL
    2. Особенности, связанные с моделью Ollama
    3. Функции, связанные с OpenAI
    4. Функции, связанные с Google Gemini
    5. Функции HTTP-запроса
  2. Начать
    1. Клонировать репозиторий
    2. Запустите Docker-контейнер GraphDB.
    3. Соберите и запустите сервер MCP.
    4. Импорт RDF-данных
    5. Настройка Claude Desktop
  3. Лицензия

    Related MCP Servers

    • -
      security
      F
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      14
      1
      JavaScript
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      536
      1
      MIT License
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.
      Last updated -
      2
      4
      JavaScript
      GPL 3.0
    • -
      security
      A
      license
      -
      quality
      Allows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.
      Last updated -
      4
      TypeScript
      MIT License

    View all related MCP servers

    ID: mxvujkgabm