Skip to main content
Glama

AI Development Assistant MCP Server

by yeakub108

Asistente de desarrollo de IA para servidor MCP

¡Bienvenido a tu kit de herramientas de desarrollo con IA, diseñado como un servidor de Protocolo de Contexto de Modelo (MCP) para Cursor! Este proyecto proporciona asistencia inteligente para la codificación mediante herramientas de IA personalizadas. Ten en cuenta que se trata principalmente de una demostración tutorial y no de una herramienta lista para producción.

✨ Características

🎨 Arquitecto de código

Llame a LLM de razonamiento avanzado para generar planes e instrucciones para agentes de codificación.

Compañero de captura de pantalla

Tome capturas de pantalla del diseño de la interfaz de usuario y úselas con el agente compositor.

🔍 Revisión de código

Utilice git diffs para activar revisiones de código.

📄 Leer archivo y leer varios archivos

La lectura de un solo archivo permite un análisis de datos eficiente; la lectura de múltiples archivos facilita el procesamiento masivo de datos.

🚀 Primeros pasos

1. Configuración del entorno

Primero, deberá configurar sus variables de entorno. Cree un archivo en src/env/keys.ts :

export const OPENAI_API_KEY = "your_key_here"; // Add any other keys you need

⚠️ Nota de seguridad : No se recomienda almacenar las claves API directamente en el código fuente en entornos de producción. Esto es solo para fines de desarrollo y aprendizaje local. También puede configurar la variable de entorno en línea en la interfaz Cursor MCP.

2. Instalación

npm install # or yarn install

3. Construya el servidor

npm run build

4. Abra Windsurf Chat y configure MCP

Este proyecto está diseñado para usarse como servidor MCP en Cursor. Aquí te explicamos cómo configurarlo:

  1. Abra Windsurf en su sistema.
  2. Vaya a la sección Chat.
  3. Haga clic en + Configure MCP (esto le permite agregar un nuevo servidor MCP).
  4. Agregue la siguiente configuración JSON:
{ "mcpServers": { "mcp-server": { "command": "node", "args": [ "D:\\mpc-server\\build\\index.js" ] } } }

📘 Consejo profesional : Es posible que necesites usar la ruta completa al archivo index.js creado en tu proyecto.

Después de agregar el servidor, debería ver sus herramientas en la sección "Herramientas disponibles". De lo contrario, haga clic en el botón Actualizar en la esquina superior derecha de la sección del servidor MCP.

Para obtener más detalles sobre la configuración de MCP, consulte la documentación de Windsurf MCP .

🛠️ Uso de las herramientas

Una vez configuradas, puedes usar estas herramientas directamente en el Compositor de Cursor. La IA te sugerirá automáticamente el uso de las herramientas relevantes, o puedes solicitarlas explícitamente por nombre o descripción.

Por ejemplo, intenta escribir en Composer:

  • "Revise este código para conocer las mejores prácticas"
  • "Ayúdame a diseñar una nueva función"
  • Analizar esta captura de pantalla de la interfaz de usuario
  • Leer un solo archivo y leer varios archivos

El agente le solicitará su aprobación antes de realizar cualquier llamada de herramientas.

📘 Consejo profesional : puedes actualizar tu archivo .cursorrules con instrucciones sobre cómo usar las herramientas para ciertos escenarios, y el agente utilizará las herramientas automáticamente.

📁 Estructura del proyecto

src/ ├── tools/ │ ├── architect.ts # Code structure generator │ ├── screenshot.ts # Screenshot analysis tool │ ├── fileReader.ts # read file & read multiple files tool │ └── codeReview.ts # Code review tool ├── env/ │ └── keys.ts # Environment configuration (add your API keys here!) └── index.ts # Main entry point

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un kit de herramientas compatible con Cursor que proporciona asistencia de codificación inteligente a través de herramientas de IA personalizadas para la planificación de la arquitectura de código, análisis de capturas de pantalla, revisión de código y capacidades de lectura de archivos.

  1. ✨ Características
    1. 🎨 Arquitecto de código
    2. Compañero de captura de pantalla
    3. 🔍 Revisión de código
    4. 📄 Leer archivo y leer varios archivos
  2. 🚀 Primeros pasos
    1. Configuración del entorno
    2. Instalación
    3. Construya el servidor
    4. Abra Windsurf Chat y configure MCP
  3. 🛠️ Uso de las herramientas
    1. 📁 Estructura del proyecto

      Related MCP Servers

      • -
        security
        A
        license
        -
        quality
        Facilitates integration with the Cursor code editor by enabling real-time code indexing, analysis, and bi-directional communication with Claude, supporting concurrent sessions and automatic reconnection.
        Last updated -
        2
        21
        31
        TypeScript
        MIT License
      • -
        security
        A
        license
        -
        quality
        An AI-powered development toolkit for Cursor providing intelligent coding assistance through advanced reasoning, UI screenshot analysis, and code review tools.
        Last updated -
        839
        240
        TypeScript
        MIT License
      • -
        security
        F
        license
        -
        quality
        A code review tool for Cursor IDE that uses OpenAI's GPT models to provide intelligent code analysis and suggestions.
        Last updated -
        2
        Python
        • Linux
        • Apple
      • -
        security
        A
        license
        -
        quality
        Gives AI-powered coding tools like Cursor, Windsurf, and Cline access to Figma design files, enabling more accurate code generation directly from Figma designs.
        Last updated -
        60,738
        TypeScript
        MIT License

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/yeakub108/mcp-server'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server