MCP Coding Assistant с поддержкой OpenAI и других поставщиков LLM
Мощная реконструкция Claude Code на Python с улучшенной визуализацией в реальном времени, управлением затратами и возможностями сервера Model Context Protocol (MCP). Этот инструмент предоставляет интерфейс на естественном языке для задач разработки программного обеспечения с поддержкой нескольких поставщиков LLM.
Основные характеристики
- Поддержка нескольких поставщиков: работает с OpenAI, Anthropic и другими поставщиками LLM
- Интеграция протокола контекста модели:
- Запуск в качестве сервера MCP для использования с Claude Desktop и другими клиентами
- Подключитесь к любому серверу MCP с помощью встроенного клиента MCP
- Многоагентная синхронизация для решения сложных проблем
- Визуализация инструмента в реальном времени: отслеживайте ход выполнения инструмента и результаты в реальном времени.
- Управление расходами: отслеживайте использование токенов и расходы с помощью бюджетного контроля.
- Комплексный набор инструментов: операции с файлами, поиск, выполнение команд и многое другое
- Улучшенный пользовательский интерфейс: богатый интерфейс терминала с индикаторами хода выполнения и подсветкой синтаксиса
- Оптимизация контекста: интеллектуальное сжатие разговоров и управление памятью
- Координация агентов: специализированные агенты с разными ролями могут совместно работать над задачами.
Установка
- Клонировать этот репозиторий
- Установить зависимости:
- Создайте файл
.env
с вашими ключами API:
Использование
Режим CLI
Запустите CLI с поставщиком по умолчанию (определяется по доступным ключам API):
Укажите поставщика и модель:
Установите лимит бюджета для управления расходами:
Режим сервера MCP
Запуск в качестве сервера Model Context Protocol:
Начните в режиме разработки с помощью MCP Inspector:
Настройте хост и порт:
Укажите дополнительные зависимости:
Загрузить переменные среды из файла:
Режим клиента MCP
Подключитесь к серверу MCP, используя Claude в качестве механизма рассуждений:
Укажите модель Клода:
Попробуйте включенный пример сервера:
Многоагентный режим MCP
Запустите многоагентный клиент с синхронизированными агентами:
Используйте пользовательский файл конфигурации агента:
Пример с эхо-сервером:
Доступные инструменты
- Вид: Чтение файлов с дополнительными ограничениями строк
- Редактировать: изменить файлы с точной заменой текста
- Заменить: создать или перезаписать файлы
- GlobTool: Поиск файлов по шаблону
- GrepTool: Поиск содержимого файла с использованием регулярных выражений
- LS: Список содержимого каталога
- Bash: выполнение команд оболочки
Команды чата
- /help: Показать доступные команды
- /compact: Сжать историю разговоров для сохранения токенов
- /version: Показать информацию о версии
- /providers: Список доступных поставщиков LLM
- /cost: Показать информацию о стоимости и использовании
- /budget [сумма]: Установить лимит бюджета
- /quit, /exit: Выход из приложения.
Архитектура
Claude Code Python Edition построен на основе модульной архитектуры:
Использование с протоколом контекста модели
Использование Claude Code в качестве MCP-сервера
После запуска сервера MCP вы можете подключиться к нему с помощью Claude Desktop или других клиентов, совместимых с MCP:
- Установите и запустите сервер MCP:
- Откройте страницу конфигурации в вашем браузере:
- Следуйте инструкциям по настройке Claude Desktop, включая:
- Скопируйте конфигурацию JSON
- Загрузите автоматически настроенный файл JSON
- Пошаговые инструкции по настройке
Использование Claude Code в качестве MCP-клиента
Чтобы подключиться к любому серверу MCP с помощью Claude Code:
- Убедитесь, что ваш ключ API Anthropic находится в файле среды или .env.
- Запустите сервер MCP, к которому вы хотите подключиться.
- Подключитесь с помощью клиента MCP:
- Введите запросы в интерактивном интерфейсе чата
Использование многоагентного режима
Для сложных задач многоагентный режим позволяет нескольким специализированным агентам сотрудничать:
- Создайте файл конфигурации агента или используйте предоставленный пример.
- Запустите свой MCP-сервер
- Запустите многоагентный клиент:
- Используйте командный интерфейс для взаимодействия с несколькими агентами:
- Введите сообщение для трансляции всем агентам
- Используйте
/talk Agent_Name message
для прямого общения - Используйте
/agents
чтобы увидеть всех доступных агентов. - Используйте
/history
для просмотра истории разговоров.
Внося вклад
- Форк репозитория
- Создать ветку функций
- Внедрите свои изменения с помощью тестов
- Отправить запрос на извлечение
Лицензия
Массачусетский технологический институт
Благодарности
Этот проект вдохновлен инструментом Claude Code CLI от Anthropic, переработанным на Python с дополнительными функциями для улучшенной видимости, управления затратами и возможностями сервера MCP.# OpenAI Code Assistant
Мощный помощник по кодированию на основе командной строки и API, использующий API OpenAI с вызовом функций и потоковой передачей.
Функции
- Интерактивный CLI для помощи в кодировании
- Веб-API для интеграции с другими приложениями
- Реализация сервера Model Context Protocol (MCP)
- Поддержка репликации для высокой доступности
- Архитектура на основе инструментов для расширяемости
- Обучение с подкреплением для оптимизации инструментов
- Веб-клиент для взаимодействия через браузер
Установка
- Клонировать репозиторий
- Установить зависимости:
- Установите свой ключ API OpenAI:
Использование
Режим CLI
Запустите помощника в интерактивном режиме CLI:
Параметры:
--model
,-m
: Укажите модель для использования (по умолчанию: gpt-4o)--temperature
,-t
: Установить температуру для генерации ответа (по умолчанию: 0)--verbose
,-v
: Включить подробный вывод с дополнительной информацией--enable-rl/--disable-rl
: Включить/отключить обучение с подкреплением для оптимизации инструмента--rl-update
: вручную запустить обновление модели RL
Режим API-сервера
Запустите помощник как API-сервер:
Параметры:
--host
: Адрес хоста для привязки (по умолчанию: 127.0.0.1)--port
,-p
: Порт для прослушивания (по умолчанию: 8000)--workers
,-w
: Количество рабочих процессов (по умолчанию: 1)--enable-replication
: Включить репликацию между экземплярами--primary/--secondary
: Является ли этот экземпляр первичным или вторичным--peer
: Экземпляры одноранговых узлов для репликации (хост:порт), можно указать несколько раз
Режим сервера MCP
Запустите помощник как сервер Model Context Protocol (MCP):
Параметры:
--host
: Адрес хоста для привязки (по умолчанию: 127.0.0.1)--port
,-p
: Порт для прослушивания (по умолчанию: 8000)--dev
: Включить режим разработки с дополнительным протоколированием--dependencies
: Дополнительные зависимости Python для установки--env-file
: Путь к файлу .env с переменными среды
Режим клиента MCP
Подключитесь к серверу MCP, используя помощника в качестве механизма рассуждений:
Параметры:
--model
,-m
: Модель, используемая для рассуждений (по умолчанию: gpt-4o)--host
: Адрес хоста для сервера MCP (по умолчанию: 127.0.0.1)--port
,-p
: Порт для сервера MCP (по умолчанию: 8000)
Скрипт развертывания
Для более простого развертывания используйте предоставленный скрипт:
Чтобы включить репликацию:
Веб-клиент
Чтобы использовать веб-клиент, откройте web-client.html
в браузере. Убедитесь, что сервер API запущен.
Конечные точки API
Стандартные конечные точки API
POST /conversation
: Создать новый разговорPOST /conversation/{conversation_id}/message
: Отправить сообщение в беседуPOST /conversation/{conversation_id}/message/stream
: Потоковая передача ответа на сообщениеGET /conversation/{conversation_id}
: Получить детали разговораDELETE /conversation/{conversation_id}
: Удалить беседуGET /health
: Конечная точка проверки работоспособности
Конечные точки протокола MCP
GET /
: Проверка работоспособности (протокол MCP)POST /context
: Получить контекст для шаблона подсказкиGET /prompts
: Список доступных шаблонов подсказокGET /prompts/{prompt_id}
: Получить определенный шаблон подсказкиPOST /prompts
: Создать новый шаблон подсказкиPUT /prompts/{prompt_id}
: обновить существующий шаблон приглашенияDELETE /prompts/{prompt_id}
: Удалить шаблон подсказки
Репликация
Система репликации позволяет запускать несколько экземпляров помощника с синхронизированным состоянием. Это обеспечивает:
- Высокая доступность
- Балансировка нагрузки
- Отказоустойчивость
Чтобы настроить репликацию:
- Запустите первичный экземпляр с помощью
--enable-replication
- Запустите вторичные экземпляры с помощью
--enable-replication --secondary --peer [primary-host:port]
Инструменты
Помощник включает в себя различные инструменты:
- Погода: Получите текущую погоду для определенного местоположения.
- Вид: Чтение файлов из файловой системы
- Редактировать: Редактировать файлы
- Заменить: Записать файлы
- Bash: выполнение команд bash
- GlobTool: Сопоставление файлов с шаблоном
- GrepTool: Поиск контента
- LS: Список содержимого каталога
- JinaSearch: поиск в Интернете с использованием Jina.ai.
- JinaFactCheck: проверка фактов с помощью Jina.ai
- JinaReadURL: чтение и обобщение веб-страниц
Команды CLI
/help
: Показать справочное сообщение/compact
: Сжать разговор, чтобы уменьшить использование токенов./status
: Показать использование токена и информацию о сеансе/config
: Показать текущие настройки конфигурации/rl-status
: Показать статус оптимизатора инструмента RL (если включен)/rl-update
: Обновить модель RL вручную (если включено)/rl-stats
: Показать статистику использования инструмента (если включено)
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Реализация сервера Model Context Protocol, которая обеспечивает связь между API OpenAI и клиентами MCP для помощи в кодировании с такими функциями, как взаимодействие с CLI, интеграция с веб-API и архитектура на основе инструментов.
- Основные характеристики
- Установка
- Использование
- Доступные инструменты
- Команды чата
- Архитектура
- Использование с протоколом контекста модели
- Внося вклад
- Лицензия
- Благодарности
- Функции
- Установка
- Использование
- Конечные точки API
- Репликация
- Инструменты
- Команды CLI
Related Resources
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -12428JavaScriptMIT License
- -securityAlicense-qualityA simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.Last updated -26PythonMIT License
- -securityAlicense-qualityAn MCP server that exposes HTTP methods defined in an OpenAPI specification as tools, enabling interaction with APIs via the Model Context Protocol.Last updated -2PythonMIT License
Open-Ledger-MCP-Serverofficial
-securityAlicense-qualityA Model Context Protocol (MCP) server implementation for the OpenLedger API. This server provides structured context to AI models according to the MCP specification.Last updated -8TypeScriptApache 2.0