MCP Coding Assistant с поддержкой OpenAI и других поставщиков LLM
Мощная реконструкция Claude Code на Python с улучшенной визуализацией в реальном времени, управлением затратами и возможностями сервера Model Context Protocol (MCP). Этот инструмент предоставляет интерфейс на естественном языке для задач разработки программного обеспечения с поддержкой нескольких поставщиков LLM.
Основные характеристики
Поддержка нескольких поставщиков: работает с OpenAI, Anthropic и другими поставщиками LLM
Интеграция протокола контекста модели:
Запуск в качестве сервера MCP для использования с Claude Desktop и другими клиентами
Подключитесь к любому серверу MCP с помощью встроенного клиента MCP
Многоагентная синхронизация для решения сложных проблем
Визуализация инструмента в реальном времени: отслеживайте ход выполнения инструмента и результаты в реальном времени.
Управление расходами: отслеживайте использование токенов и расходы с помощью бюджетного контроля.
Комплексный набор инструментов: операции с файлами, поиск, выполнение команд и многое другое
Улучшенный пользовательский интерфейс: богатый интерфейс терминала с индикаторами хода выполнения и подсветкой синтаксиса
Оптимизация контекста: интеллектуальное сжатие разговоров и управление памятью
Координация агентов: специализированные агенты с разными ролями могут совместно работать над задачами.
Related MCP server: MCP Simple OpenAI Assistant
Установка
Клонировать этот репозиторий
Установить зависимости:
Создайте файл
.envс вашими ключами API:
Использование
Режим CLI
Запустите CLI с поставщиком по умолчанию (определяется по доступным ключам API):
Укажите поставщика и модель:
Установите лимит бюджета для управления расходами:
Режим сервера MCP
Запуск в качестве сервера Model Context Protocol:
Начните в режиме разработки с помощью MCP Inspector:
Настройте хост и порт:
Укажите дополнительные зависимости:
Загрузить переменные среды из файла:
Режим клиента MCP
Подключитесь к серверу MCP, используя Claude в качестве механизма рассуждений:
Укажите модель Клода:
Попробуйте включенный пример сервера:
Многоагентный режим MCP
Запустите многоагентный клиент с синхронизированными агентами:
Используйте пользовательский файл конфигурации агента:
Пример с эхо-сервером:
Доступные инструменты
Вид: Чтение файлов с дополнительными ограничениями строк
Редактировать: изменить файлы с точной заменой текста
Заменить: создать или перезаписать файлы
GlobTool: Поиск файлов по шаблону
GrepTool: Поиск содержимого файла с использованием регулярных выражений
LS: Список содержимого каталога
Bash: выполнение команд оболочки
Команды чата
/help: Показать доступные команды
/compact: Сжать историю разговоров для сохранения токенов
/version: Показать информацию о версии
/providers: Список доступных поставщиков LLM
/cost: Показать информацию о стоимости и использовании
/budget [сумма]: Установить лимит бюджета
/quit, /exit: Выход из приложения.
Архитектура
Claude Code Python Edition построен на основе модульной архитектуры:
Использование с протоколом контекста модели
Использование Claude Code в качестве MCP-сервера
После запуска сервера MCP вы можете подключиться к нему с помощью Claude Desktop или других клиентов, совместимых с MCP:
Установите и запустите сервер MCP:
python claude.py serveОткройте страницу конфигурации в вашем браузере:
http://localhost:8000Следуйте инструкциям по настройке Claude Desktop, включая:
Скопируйте конфигурацию JSON
Загрузите автоматически настроенный файл JSON
Пошаговые инструкции по настройке
Использование Claude Code в качестве MCP-клиента
Чтобы подключиться к любому серверу MCP с помощью Claude Code:
Убедитесь, что ваш ключ API Anthropic находится в файле среды или .env.
Запустите сервер MCP, к которому вы хотите подключиться.
Подключитесь с помощью клиента MCP:
python claude.py mcp-client path/to/server.pyВведите запросы в интерактивном интерфейсе чата
Использование многоагентного режима
Для сложных задач многоагентный режим позволяет нескольким специализированным агентам сотрудничать:
Создайте файл конфигурации агента или используйте предоставленный пример.
Запустите свой MCP-сервер
Запустите многоагентный клиент:
python claude.py mcp-multi-agent path/to/server.py --config examples/agents_config.jsonИспользуйте командный интерфейс для взаимодействия с несколькими агентами:
Введите сообщение для трансляции всем агентам
Используйте
/talk Agent_Name messageдля прямого общенияИспользуйте
/agentsчтобы увидеть всех доступных агентов.Используйте
/historyдля просмотра истории разговоров.
Внося вклад
Форк репозитория
Создать ветку функций
Внедрите свои изменения с помощью тестов
Отправить запрос на извлечение
Лицензия
Массачусетский технологический институт
Благодарности
Этот проект вдохновлен инструментом Claude Code CLI от Anthropic, переработанным на Python с дополнительными функциями для улучшенной видимости, управления затратами и возможностями сервера MCP.# OpenAI Code Assistant
Мощный помощник по кодированию на основе командной строки и API, использующий API OpenAI с вызовом функций и потоковой передачей.
Функции
Интерактивный CLI для помощи в кодировании
Веб-API для интеграции с другими приложениями
Реализация сервера Model Context Protocol (MCP)
Поддержка репликации для высокой доступности
Архитектура на основе инструментов для расширяемости
Обучение с подкреплением для оптимизации инструментов
Веб-клиент для взаимодействия через браузер
Установка
Клонировать репозиторий
Установить зависимости:
pip install -r requirements.txtУстановите свой ключ API OpenAI:
export OPENAI_API_KEY=your_api_key
Использование
Режим CLI
Запустите помощника в интерактивном режиме CLI:
Параметры:
--model,-m: Укажите модель для использования (по умолчанию: gpt-4o)--temperature,-t: Установить температуру для генерации ответа (по умолчанию: 0)--verbose,-v: Включить подробный вывод с дополнительной информацией--enable-rl/--disable-rl: Включить/отключить обучение с подкреплением для оптимизации инструмента--rl-update: вручную запустить обновление модели RL
Режим API-сервера
Запустите помощник как API-сервер:
Параметры:
--host: Адрес хоста для привязки (по умолчанию: 127.0.0.1)--port,-p: Порт для прослушивания (по умолчанию: 8000)--workers,-w: Количество рабочих процессов (по умолчанию: 1)--enable-replication: Включить репликацию между экземплярами--primary/--secondary: Является ли этот экземпляр первичным или вторичным--peer: Экземпляры одноранговых узлов для репликации (хост:порт), можно указать несколько раз
Режим сервера MCP
Запустите помощник как сервер Model Context Protocol (MCP):
Параметры:
--host: Адрес хоста для привязки (по умолчанию: 127.0.0.1)--port,-p: Порт для прослушивания (по умолчанию: 8000)--dev: Включить режим разработки с дополнительным протоколированием--dependencies: Дополнительные зависимости Python для установки--env-file: Путь к файлу .env с переменными среды
Режим клиента MCP
Подключитесь к серверу MCP, используя помощника в качестве механизма рассуждений:
Параметры:
--model,-m: Модель, используемая для рассуждений (по умолчанию: gpt-4o)--host: Адрес хоста для сервера MCP (по умолчанию: 127.0.0.1)--port,-p: Порт для сервера MCP (по умолчанию: 8000)
Скрипт развертывания
Для более простого развертывания используйте предоставленный скрипт:
Чтобы включить репликацию:
Веб-клиент
Чтобы использовать веб-клиент, откройте web-client.html в браузере. Убедитесь, что сервер API запущен.
Конечные точки API
Стандартные конечные точки API
POST /conversation: Создать новый разговорPOST /conversation/{conversation_id}/message: Отправить сообщение в беседуPOST /conversation/{conversation_id}/message/stream: Потоковая передача ответа на сообщениеGET /conversation/{conversation_id}: Получить детали разговораDELETE /conversation/{conversation_id}: Удалить беседуGET /health: Конечная точка проверки работоспособности
Конечные точки протокола MCP
GET /: Проверка работоспособности (протокол MCP)POST /context: Получить контекст для шаблона подсказкиGET /prompts: Список доступных шаблонов подсказокGET /prompts/{prompt_id}: Получить определенный шаблон подсказкиPOST /prompts: Создать новый шаблон подсказкиPUT /prompts/{prompt_id}: обновить существующий шаблон приглашенияDELETE /prompts/{prompt_id}: Удалить шаблон подсказки
Репликация
Система репликации позволяет запускать несколько экземпляров помощника с синхронизированным состоянием. Это обеспечивает:
Высокая доступность
Балансировка нагрузки
Отказоустойчивость
Чтобы настроить репликацию:
Запустите первичный экземпляр с помощью
--enable-replicationЗапустите вторичные экземпляры с помощью
--enable-replication --secondary --peer [primary-host:port]
Инструменты
Помощник включает в себя различные инструменты:
Погода: Получите текущую погоду для определенного местоположения.
Вид: Чтение файлов из файловой системы
Редактировать: Редактировать файлы
Заменить: Записать файлы
Bash: выполнение команд bash
GlobTool: Сопоставление файлов с шаблоном
GrepTool: Поиск контента
LS: Список содержимого каталога
JinaSearch: поиск в Интернете с использованием Jina.ai.
JinaFactCheck: проверка фактов с помощью Jina.ai
JinaReadURL: чтение и обобщение веб-страниц
Команды CLI
/help: Показать справочное сообщение/compact: Сжать разговор, чтобы уменьшить использование токенов./status: Показать использование токена и информацию о сеансе/config: Показать текущие настройки конфигурации/rl-status: Показать статус оптимизатора инструмента RL (если включен)/rl-update: Обновить модель RL вручную (если включено)/rl-stats: Показать статистику использования инструмента (если включено)