Just Prompt — легкий сервер MCP для поставщиков LLM
just-prompt
— это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board
, чтобы упростить принятие сложных решений с помощью o3, здесь .
Инструменты
На сервере доступны следующие инструменты MCP:
prompt
: Отправить запрос нескольким моделям LLM- Параметры:
text
: Текст подсказкиmodels_prefixed_by_provider
(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
- Параметры:
prompt_from_file
: отправка подсказки из файла нескольким моделям LLM- Параметры:
file
: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider
(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
- Параметры:
prompt_from_file_to_file
: отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметки- Параметры:
file
: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider
(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.output_dir
(по умолчанию: "."): Каталог для сохранения файлов разметки ответов
- Параметры:
ceo_and_board
: отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.- Параметры:
file
: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider
(необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.output_dir
(по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директораceo_model
(по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»
- Параметры:
list_providers
: Список всех доступных поставщиков LLM- Параметры: Нет
list_models
: список всех доступных моделей для определенного поставщика LLM- Параметры:
provider
: поставщик для перечисления моделей (например, «openai» или «o»)
- Параметры:
Префиксы провайдера
Каждая модель должна иметь префикс в виде имени поставщика.
используйте короткое имя для более быстрой ссылки
o
илиopenai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
илиanthropic
: антропныйa:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
илиgemini
: Google Близнецыg:gemini-2.5-pro-exp-03-25
gemini:gemini-2.5-pro-exp-03-25
q
илиgroq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
илиdeepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
илиollama
: Олламаl:llama3.1
ollama:llama3.1
Функции
- Унифицированный API для нескольких поставщиков LLM
- Поддержка текстовых подсказок из строк или файлов
- Запуск нескольких моделей параллельно
- Автоматическая коррекция имени модели с использованием первой модели в списке
--default-models
- Возможность сохранения ответов в файлы
- Удобный список доступных поставщиков и моделей
Установка
Переменные среды
Создайте файл .env
с вашими ключами API (можно скопировать файл .env.sample
):
Затем отредактируйте файл .env
, чтобы добавить ключи API (или экспортируйте их в оболочку):
Установка кода Клода
Во всех этих примерах замените каталог на путь к каталогу just-prompt.
Модели по умолчанию установлены на openai:o3:high
, openai:o4-mini:high
, anthropic:claude-3-7-sonnet-20250219:4k
, gemini:gemini-2.5-pro-preview-03-25
и gemini:gemini-2.5-flash-preview-04-17
.
Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...
Параметр --default-models
задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.
При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.
Использование mcp add-json
Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json
JSON для копирования
С пользовательской моделью по умолчанию, установленной на openai:gpt-4o
.
С несколькими моделями по умолчанию:
Использование mcp add
с областью действия проекта
mcp remove
claude mcp удалить просто-подсказка
Проведение тестов
Структура кодовой базы
Контекстная подготовка
ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.
Обоснование усилий с OpenAI o‑Series
Для моделей рассуждений OpenAI серии o ( o4-mini
, o3-mini
, o3
) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.
Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):
:low
– минимальные внутренние рассуждения (быстрее, дешевле):medium
– сбалансированный (по умолчанию, если не указан):high
– тщательное рассуждение (медленнее, больше токенов)
Примеры:
openai:o4-mini:low
o:o4-mini:high
При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort
. Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.
Думаем о жетонах с Клодом
Модель антропного Клода claude-3-7-sonnet-20250219
поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.
Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:
anthropic:claude-3-7-sonnet-20250219:1k
- Используйте 1024 жетона мышленияanthropic:claude-3-7-sonnet-20250219:4k
- Используйте 4096 токенов мышленияanthropic:claude-3-7-sonnet-20250219:8000
- Используйте 8000 жетонов мышления
Примечания:
- Маркеры мышления поддерживаются только для модели
claude-3-7-sonnet-20250219
- Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.
- Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
- Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Думаем о бюджете с Близнецами
Модель Google Gemini gemini-2.5-flash-preview-04-17
поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.
Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:
gemini:gemini-2.5-flash-preview-04-17:1k
- Используйте бюджет мышления 1024gemini:gemini-2.5-flash-preview-04-17:4k
- Используйте 4096 бюджета мышленияgemini:gemini-2.5-flash-preview-04-17:8000
- Используйте бюджет мышления 8000
Примечания:
- Бюджет Thinking поддерживается только для модели
gemini-2.5-flash-preview-04-17
- Допустимый диапазон бюджета мышления от 0 до 24576
- Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
- Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Ресурсы
- https://docs.anthropic.com/en/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
Мастер кодирования ИИ
Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ
Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Легкий сервер MCP, предоставляющий унифицированный интерфейс для различных поставщиков LLM, включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License
- -securityAlicense-qualityA lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.Last updated -94TypeScriptMIT License