local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Supports environment configuration through .env files, enabling customization of knowledge graph settings and Ollama configuration parameters.
Provides integration with Ollama for AI-powered code reviews using local models, allowing the MCP server to utilize Ollama's capabilities to generate expert code reviews based on different programming principles.
Sistema experto en código MCP
Un sistema de revisión de código basado en Python que utiliza el Protocolo de Contexto de Modelo (MCP). Ofrece funciones de revisión de código mediante la simulación de personajes expertos como Martin Fowler y Robert C. Martin (Tío Bob).
Características
- Revisión de código basada en los principios de refactorización de Martin Fowler
- Revisión de código basada en los principios de Código Limpio de Robert C. Martin
- Almacenamiento de gráficos de conocimiento de código, revisiones y relaciones
- Integración con Ollama para reseñas impulsadas por IA
- Compatibilidad con eventos del lado del servidor (SSE) para la integración web
Prerrequisitos
Python 3.10+
Este proyecto requiere Python 3.10 o superior.
Ollama
Ollama es necesario para las revisiones de código impulsadas por IA.
- Instale Ollama para su plataforma:
- macOS : Descargar desde olama.com
- Linux :
curl -fsSL https://ollama.com/install.sh | sh
- Windows : Compatibilidad con Windows WSL2 mediante instrucciones para Linux
- Extraiga un modelo recomendado:Copy
- Inicie el servidor Ollama:Copy
Instalación
Ejecute el script de instalación para instalar dependencias y crear el entorno virtual:
Configuración
Edite el archivo .env
para configurarlo (créelo desde .env.example
si es necesario):
Uso
Ejecución del servidor
Modo estándar (para integración del cursor)
Modo HTTP/SSE (para integración web)
Esto iniciará el servidor en http://localhost:8000/sse
para el transporte SSE.
Para puerto personalizado:
Instalación en Cursor
Para instalar en Cursor IDE:
Herramientas disponibles
El servidor expone estas herramientas:
ask_martin
: Pídele a Martin Fowler que revise el código y sugiera refactorizacionesask_bob
: Pídele a Robert C. Martin (tío Bob) que revise el código según los principios de Clean Coderead_graph
: Lee el gráfico de conocimiento completosearch_nodes
: Busca nodos en el gráfico de conocimientoopen_nodes
: Abre nodos específicos por sus nombres
Ejemplo de uso
Para revisar un fragmento de código con Martin Fowler:
Estructura del proyecto
server.py
: Implementación del servidor principal con integración MCPexperts/
: Módulos expertos que implementan las capacidades de revisión de código__init__.py
: Modelos e interfaces compartidosmartin_fowler/
: Implementación experta de Martin Fowlerrobert_c_martin/
: Implementación experta de Robert C. Martin
knowledge_graph.py
: Gráfico de conocimiento para almacenar código y revisionesollama_service.py
: Integración con Ollama para reseñas basadas en IAexamples/
: Código de ejemplo para revisión en diferentes idiomasrequirements.txt
: Dependencias de Pythonsetup.sh
: Script de configuración
Arquitectura
El sistema sigue una arquitectura modular:
- Capa de servidor : maneja la comunicación del protocolo MCP y enruta las solicitudes
- Capa de experto : encapsula la lógica de revisión de código para cada experto
- Capa de servicio : proporciona integración de IA y funcionalidad de gráfico de conocimiento
Cada experto implementa una interfaz estándar que permite un manejo consistente y una fácil incorporación de nuevos expertos.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
Un sistema basado en Python que proporciona revisiones de código impulsadas por IA a través de personajes expertos simulados como Martin Fowler y Robert C. Martin, utilizando el Protocolo de Contexto de Modelo (MCP).