Skip to main content
Glama

Онтология MCP

Ontology MCP — это сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude. Этот инструмент позволяет Клоду запрашивать и обрабатывать данные онтологии, а также использовать различные модели ИИ.

Обзор MCP онтологии

Основные характеристики

Функции, связанные со SPARQL

  • Выполнить запрос SPARQL ( mcp_sparql_execute_query )

  • Выполнить запрос на обновление SPARQL ( mcp_sparql_update )

  • Список репозиториев ( mcp_sparql_list_repositories )

  • Запрос списка графов ( mcp_sparql_list_graphs )

  • Получить информацию о ресурсе ( mcp_sparql_get_resource_info )

Особенности, связанные с моделью Ollama

  • Запустить модель ( mcp_ollama_run )

  • Проверить информацию о модели ( mcp_ollama_show )

  • Скачать модель ( mcp_ollama_pull )

  • Получить список моделей ( mcp_ollama_list )

  • Удалить модель ( mcp_ollama_rm )

  • Завершение чата ( mcp_ollama_chat_completion )

  • Проверить статус контейнера ( mcp_ollama_status )

Функции, связанные с OpenAI

  • Чат завершен ( mcp_openai_chat )

  • Создать изображение ( mcp_openai_image )

  • Преобразование текста в речь ( mcp_openai_tts )

  • Преобразование речи в текст ( mcp_openai_transcribe )

  • Сгенерировать встраивание ( mcp_openai_embedding )

Функции, связанные с Google Gemini

  • Сгенерировать текст ( mcp_gemini_generate_text )

  • Завершение чата ( mcp_gemini_chat_completion )

  • Получить список моделей ( mcp_gemini_list_models )

  • ~~Создание изображений ( mcp_gemini_generate_images ) - с использованием модели Imagen~~ (в настоящее время отключено)

  • ~~Создание видео ( mcp_gemini_generate_videos ) - Использование моделей Veo~~ (в настоящее время отключено)

  • ~~Создание мультимодального контента ( mcp_gemini_generate_multimodal_content )~~ (в настоящее время отключено)

Примечание : функции создания изображений, видео и мультимодального контента Gemini в настоящее время отключены из-за проблем совместимости API.

Поддерживаемые модели Gemini

Трансформация модели

вход

выходная мощность

Цель оптимизации

Gemini 2.5 Flash Предварительный просмотр

gemini-2.5-flash-preview-04-17

Аудио, изображения, видео, текст

Текст

Адаптивное мышление, экономическая эффективность

Gemini 2.5 Pro Предварительный просмотр

gemini-2.5-pro-preview-03-25

Аудио, изображения, видео, текст

Текст

Улучшенное мышление и рассуждение, мультимодальное понимание, расширенное кодирование

Gemini 2.0 Flashgemini

gemini-2.0-flash

Аудио, изображения, видео, текст

Текст, изображения (экспериментально), аудио (скоро)

Возможности следующего поколения, скорость, мышление, потоковая передача в реальном времени, мультимодальное создание

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

Аудио, изображения, видео, текст

Текст

Экономичность и низкая задержка

Близнецы 1.5 Флэш

gemini-1.5-flash

Аудио, изображения, видео, текст

Текст

Быстрая и универсальная производительность для различных задач

Близнецы 1.5 Флэш-8Б

gemini-1.5-flash-8b

Аудио, изображения, видео, текст

Текст

Задачи большого объема и низкого уровня интеллекта

Близнецы 1.5 Pro

gemini-1.5-pro

Аудио, изображения, видео, текст

Текст

Сложные задачи на рассуждение, требующие большего интеллекта

Gemini встраивание

gemini-embedding-exp

Текст

Встраивание текста

Измерение релевантности текстовых строк

Изображение 3

imagen-3.0-generate-002

Текст

изображение

Самая передовая модель генерации изображений от Google

Veo 2

veo-2.0-generate-001

Текст, Изображения

видео

Создавайте высококачественные видео

Gemini 2.0 Flash Live

gemini-2.0-flash-live-001

Аудио, видео, текст

Текст, Аудио

Двустороннее голосовое и видео взаимодействие с малой задержкой

Функции HTTP-запроса

  • Выполнение HTTP-запросов ( mcp_http_request ) — взаимодействие с внешними API с использованием различных HTTP-методов, таких как GET, POST, PUT, DELETE и т. д.

Related MCP server: terraform-cloud-mcp

Начать

1. Клонировать репозиторий

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. Запустите Docker-контейнер GraphDB.

Запустите сервер GraphDB, выполнив следующую команду из корневого каталога проекта:

docker-compose up -d

Веб-интерфейс GraphDB работает по адресу http://localhost:7200 .

3. Соберите и запустите сервер MCP.

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. Импорт RDF-данных

Перейдите в веб-интерфейс GraphDB ( http://localhost:7200 ) и выполните следующие действия:

  1. Создать репозиторий:

    • «Настройка» → «Репозитории» → «Создать новый репозиторий»

    • Идентификатор репозитория: schemaorg-current-https (или любое другое имя по вашему желанию)

    • Название репозитория: «Schema.org»

    • Нажмите «Создать»

  2. Получить образец данных:

    • Выберите созданный вами репозиторий.

    • «Импорт» → «RDF» → «Загрузить файлы RDF»

    • Загрузите пример файла в каталог imports (например, imports/example.ttl )

    • Нажмите «Импорт».

Примечание : проект включает примеры RDF-файлов в каталоге imports .

5. Настройка Claude Desktop

Чтобы использовать Ontology MCP в Claude Desktop, необходимо обновить файл настроек MCP:

  1. Откройте файл настроек Claude Desktop:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. Добавьте следующие настройки:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

ВАЖНО : Измените путь в `args' на фактический абсолютный путь к каталогу сборки вашего проекта.

  1. Перезагрузить рабочий стол Клода

Лицензия

Данный проект предоставляется по лицензии MIT. Подробную информацию смотрите в файле ЛИЦЕНЗИЯ .

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server