Uses Docker to run GraphDB and provide SPARQL endpoint functionality
Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants
Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion
Онтология MCP
Ontology MCP — это сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude. Этот инструмент позволяет Клоду запрашивать и обрабатывать данные онтологии, а также использовать различные модели ИИ.
Основные характеристики
Функции, связанные со SPARQL
- Выполнить запрос SPARQL (
mcp_sparql_execute_query
) - Выполнить запрос на обновление SPARQL (
mcp_sparql_update
) - Список репозиториев (
mcp_sparql_list_repositories
) - Запрос списка графов (
mcp_sparql_list_graphs
) - Получить информацию о ресурсе (
mcp_sparql_get_resource_info
)
Особенности, связанные с моделью Ollama
- Запустить модель (
mcp_ollama_run
) - Проверить информацию о модели (
mcp_ollama_show
) - Скачать модель (
mcp_ollama_pull
) - Получить список моделей (
mcp_ollama_list
) - Удалить модель (
mcp_ollama_rm
) - Завершение чата (
mcp_ollama_chat_completion
) - Проверить статус контейнера (
mcp_ollama_status
)
Функции, связанные с OpenAI
- Чат завершен (
mcp_openai_chat
) - Создать изображение (
mcp_openai_image
) - Преобразование текста в речь (
mcp_openai_tts
) - Преобразование речи в текст (
mcp_openai_transcribe
) - Сгенерировать встраивание (
mcp_openai_embedding
)
Функции, связанные с Google Gemini
- Сгенерировать текст (
mcp_gemini_generate_text
) - Завершение чата (
mcp_gemini_chat_completion
) - Получить список моделей (
mcp_gemini_list_models
) - ~~Создание изображений (
mcp_gemini_generate_images
) - с использованием модели Imagen~~ (в настоящее время отключено) - ~~Создание видео (
mcp_gemini_generate_videos
) - Использование моделей Veo~~ (в настоящее время отключено) - ~~Создание мультимодального контента (
mcp_gemini_generate_multimodal_content
)~~ (в настоящее время отключено)
Примечание : функции создания изображений, видео и мультимодального контента Gemini в настоящее время отключены из-за проблем совместимости API.
Поддерживаемые модели Gemini
Трансформация модели | вход | выходная мощность | Цель оптимизации |
---|---|---|---|
Gemini 2.5 Flash Предварительный просмотр gemini-2.5-flash-preview-04-17 | Аудио, изображения, видео, текст | Текст | Адаптивное мышление, экономическая эффективность |
Gemini 2.5 Pro Предварительный просмотр gemini-2.5-pro-preview-03-25 | Аудио, изображения, видео, текст | Текст | Улучшенное мышление и рассуждение, мультимодальное понимание, расширенное кодирование |
Gemini 2.0 Flashgemini gemini-2.0-flash | Аудио, изображения, видео, текст | Текст, изображения (экспериментально), аудио (скоро) | Возможности следующего поколения, скорость, мышление, потоковая передача в реальном времени, мультимодальное создание |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Аудио, изображения, видео, текст | Текст | Экономичность и низкая задержка |
Близнецы 1.5 Флэш gemini-1.5-flash | Аудио, изображения, видео, текст | Текст | Быстрая и универсальная производительность для различных задач |
Близнецы 1.5 Флэш-8Б gemini-1.5-flash-8b | Аудио, изображения, видео, текст | Текст | Задачи большого объема и низкого уровня интеллекта |
Близнецы 1.5 Pro gemini-1.5-pro | Аудио, изображения, видео, текст | Текст | Сложные задачи на рассуждение, требующие большего интеллекта |
Gemini встраивание gemini-embedding-exp | Текст | Встраивание текста | Измерение релевантности текстовых строк |
Изображение 3 imagen-3.0-generate-002 | Текст | изображение | Самая передовая модель генерации изображений от Google |
Veo 2 veo-2.0-generate-001 | Текст, Изображения | видео | Создавайте высококачественные видео |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Аудио, видео, текст | Текст, Аудио | Двустороннее голосовое и видео взаимодействие с малой задержкой |
Функции HTTP-запроса
- Выполнение HTTP-запросов (
mcp_http_request
) — взаимодействие с внешними API с использованием различных HTTP-методов, таких как GET, POST, PUT, DELETE и т. д.
Начать
1. Клонировать репозиторий
2. Запустите Docker-контейнер GraphDB.
Запустите сервер GraphDB, выполнив следующую команду из корневого каталога проекта:
Веб-интерфейс GraphDB работает по адресу http://localhost:7200 .
3. Соберите и запустите сервер MCP.
4. Импорт RDF-данных
Перейдите в веб-интерфейс GraphDB ( http://localhost:7200 ) и выполните следующие действия:
- Создать репозиторий:
- «Настройка» → «Репозитории» → «Создать новый репозиторий»
- Идентификатор репозитория:
schemaorg-current-https
(или любое другое имя по вашему желанию) - Название репозитория: «Schema.org»
- Нажмите «Создать»
- Получить образец данных:
- Выберите созданный вами репозиторий.
- «Импорт» → «RDF» → «Загрузить файлы RDF»
- Загрузите пример файла в каталог
imports
(например,imports/example.ttl
) - Нажмите «Импорт».
Примечание : проект включает примеры RDF-файлов в каталоге
imports
.
5. Настройка Claude Desktop
Чтобы использовать Ontology MCP в Claude Desktop, необходимо обновить файл настроек MCP:
- Откройте файл настроек Claude Desktop:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- Добавьте следующие настройки:
ВАЖНО : Измените путь в `args' на фактический абсолютный путь к каталогу сборки вашего проекта.
- Перезагрузить рабочий стол Клода
Лицензия
Данный проект предоставляется по лицензии MIT. Подробную информацию смотрите в файле ЛИЦЕНЗИЯ .
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude, позволяя Claude запрашивать и обрабатывать данные онтологии, используя различные модели ИИ.
Related MCP Servers
- -securityFlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -141JavaScript
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -5361MIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.Last updated -24JavaScriptGPL 3.0
FalkorDB MCP Serverofficial
-securityAlicense-qualityAllows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.Last updated -4TypeScriptMIT License