Skip to main content
Glama

Ontology MCP

by bigdata-coss

Онтология MCP

Ontology MCP — это сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude. Этот инструмент позволяет Клоду запрашивать и обрабатывать данные онтологии, а также использовать различные модели ИИ.

Обзор MCP онтологии

Основные характеристики

Функции, связанные со SPARQL

  • Выполнить запрос SPARQL ( mcp_sparql_execute_query )

  • Выполнить запрос на обновление SPARQL ( mcp_sparql_update )

  • Список репозиториев ( mcp_sparql_list_repositories )

  • Запрос списка графов ( mcp_sparql_list_graphs )

  • Получить информацию о ресурсе ( mcp_sparql_get_resource_info )

Особенности, связанные с моделью Ollama

  • Запустить модель ( mcp_ollama_run )

  • Проверить информацию о модели ( mcp_ollama_show )

  • Скачать модель ( mcp_ollama_pull )

  • Получить список моделей ( mcp_ollama_list )

  • Удалить модель ( mcp_ollama_rm )

  • Завершение чата ( mcp_ollama_chat_completion )

  • Проверить статус контейнера ( mcp_ollama_status )

Функции, связанные с OpenAI

  • Чат завершен ( mcp_openai_chat )

  • Создать изображение ( mcp_openai_image )

  • Преобразование текста в речь ( mcp_openai_tts )

  • Преобразование речи в текст ( mcp_openai_transcribe )

  • Сгенерировать встраивание ( mcp_openai_embedding )

Функции, связанные с Google Gemini

  • Сгенерировать текст ( mcp_gemini_generate_text )

  • Завершение чата ( mcp_gemini_chat_completion )

  • Получить список моделей ( mcp_gemini_list_models )

  • ~~Создание изображений ( mcp_gemini_generate_images ) - с использованием модели Imagen~~ (в настоящее время отключено)

  • ~~Создание видео ( mcp_gemini_generate_videos ) - Использование моделей Veo~~ (в настоящее время отключено)

  • ~~Создание мультимодального контента ( mcp_gemini_generate_multimodal_content )~~ (в настоящее время отключено)

Примечание : функции создания изображений, видео и мультимодального контента Gemini в настоящее время отключены из-за проблем совместимости API.

Поддерживаемые модели Gemini

Трансформация модели

вход

выходная мощность

Цель оптимизации

Gemini 2.5 Flash Предварительный просмотр

gemini-2.5-flash-preview-04-17

Аудио, изображения, видео, текст

Текст

Адаптивное мышление, экономическая эффективность

Gemini 2.5 Pro Предварительный просмотр

gemini-2.5-pro-preview-03-25

Аудио, изображения, видео, текст

Текст

Улучшенное мышление и рассуждение, мультимодальное понимание, расширенное кодирование

Gemini 2.0 Flashgemini

gemini-2.0-flash

Аудио, изображения, видео, текст

Текст, изображения (экспериментально), аудио (скоро)

Возможности следующего поколения, скорость, мышление, потоковая передача в реальном времени, мультимодальное создание

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

Аудио, изображения, видео, текст

Текст

Экономичность и низкая задержка

Близнецы 1.5 Флэш

gemini-1.5-flash

Аудио, изображения, видео, текст

Текст

Быстрая и универсальная производительность для различных задач

Близнецы 1.5 Флэш-8Б

gemini-1.5-flash-8b

Аудио, изображения, видео, текст

Текст

Задачи большого объема и низкого уровня интеллекта

Близнецы 1.5 Pro

gemini-1.5-pro

Аудио, изображения, видео, текст

Текст

Сложные задачи на рассуждение, требующие большего интеллекта

Gemini встраивание

gemini-embedding-exp

Текст

Встраивание текста

Измерение релевантности текстовых строк

Изображение 3

imagen-3.0-generate-002

Текст

изображение

Самая передовая модель генерации изображений от Google

Veo 2

veo-2.0-generate-001

Текст, Изображения

видео

Создавайте высококачественные видео

Gemini 2.0 Flash Live

gemini-2.0-flash-live-001

Аудио, видео, текст

Текст, Аудио

Двустороннее голосовое и видео взаимодействие с малой задержкой

Функции HTTP-запроса

  • Выполнение HTTP-запросов ( mcp_http_request ) — взаимодействие с внешними API с использованием различных HTTP-методов, таких как GET, POST, PUT, DELETE и т. д.

Начать

1. Клонировать репозиторий

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Запустите Docker-контейнер GraphDB.

Запустите сервер GraphDB, выполнив следующую команду из корневого каталога проекта:

docker-compose up -d

Веб-интерфейс GraphDB работает по адресу http://localhost:7200 .

3. Соберите и запустите сервер MCP.

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Импорт RDF-данных

Перейдите в веб-интерфейс GraphDB ( http://localhost:7200 ) и выполните следующие действия:

  1. Создать репозиторий:

    • «Настройка» → «Репозитории» → «Создать новый репозиторий»

    • Идентификатор репозитория: schemaorg-current-https (или любое другое имя по вашему желанию)

    • Название репозитория: «Schema.org»

    • Нажмите «Создать»

  2. Получить образец данных:

    • Выберите созданный вами репозиторий.

    • «Импорт» → «RDF» → «Загрузить файлы RDF»

    • Загрузите пример файла в каталог imports (например, imports/example.ttl )

    • Нажмите «Импорт».

Примечание : проект включает примеры RDF-файлов в каталоге imports .

5. Настройка Claude Desktop

Чтобы использовать Ontology MCP в Claude Desktop, необходимо обновить файл настроек MCP:

  1. Откройте файл настроек Claude Desktop:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. Добавьте следующие настройки:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

ВАЖНО : Измените путь в `args' на фактический абсолютный путь к каталогу сборки вашего проекта.

  1. Перезагрузить рабочий стол Клода

Лицензия

Данный проект предоставляется по лицензии MIT. Подробную информацию смотрите в файле ЛИЦЕНЗИЯ .

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude, позволяя Claude запрашивать и обрабатывать данные онтологии, используя различные модели ИИ.

  1. Основные характеристики
    1. Функции, связанные со SPARQL
    2. Особенности, связанные с моделью Ollama
    3. Функции, связанные с OpenAI
    4. Функции, связанные с Google Gemini
    5. Функции HTTP-запроса
  2. Начать
    1. 1. Клонировать репозиторий
    2. 2. Запустите Docker-контейнер GraphDB.
    3. 3. Соберите и запустите сервер MCP.
    4. 4. Импорт RDF-данных
    5. 5. Настройка Claude Desktop
  3. Лицензия

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      17
      42
      MIT License
      • Apple
      • Linux
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.
      Last updated -
      62
      17
      MIT License
      • Linux
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.
      Last updated -
      3
      2
      MIT License
    • A
      security
      F
      license
      A
      quality
      A Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.
      Last updated -
      7
      32
      91
      • Apple

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server