Skip to main content
Glama

MCP-Repo2LLM

Descripción general

mcp-repo2llm es un servidor MCP que transforma repositorios de código a formatos compatibles con LLM. Una potente herramienta que transforma repositorios de código a formatos compatibles con LLM, acortando la distancia entre las bases de código tradicionales y los modelos de lenguaje de IA modernos. Este repositorio se basa en RepoToTextForLLMs , que proporciona la funcionalidad esencial para convertir repositorios a formatos compatibles con LLM.

Related MCP server: docs2prompt MCP Server

Motivación

A medida que la IA y los Grandes Modelos de Lenguaje (LLM) adquieren mayor importancia en el desarrollo de software, aumenta la necesidad de comunicar eficazmente nuestras bases de código a estos modelos. Los repositorios de código tradicionales no están optimizados para el procesamiento de LLM, lo que puede generar resultados deficientes al utilizar herramientas de IA para el análisis y la generación de código.

Problema resuelto

Este proyecto aborda varios desafíos críticos:

  • Dificultad para procesar grandes bases de código con LLM

  • Pérdida de contexto y estructura al introducir código en los modelos de IA

  • Manejo ineficiente de metadatos y documentación del repositorio

  • Formato inconsistente en diferentes lenguajes de programación

Características principales

  • Escaneo inteligente de repositorios : procesa de forma inteligente bases de código completas mientras mantiene la integridad estructural

  • Preservación del contexto : mantiene información contextual importante y relaciones entre archivos de código

  • Compatibilidad con varios idiomas : maneja varios lenguajes de programación con optimizaciones específicas del lenguaje.

  • Mejora de metadatos : enriquece el código con metadatos relevantes para una mejor comprensión del LLM

  • Procesamiento eficiente : optimizado para manejar grandes repositorios con un uso mínimo de recursos

Instalación

Para instalar mcp-repo2llm mediante uv:

"mcp-repo2llm-server": { "command": "uv", "args": [ "run", "--with", "mcp[cli]", "--with-editable", "/mcp-repo2llm", "mcp", "run", "/mcp-repo2llm/mcp-repo2llm-server.py" ], "env":{ "GITHUB_TOKEN":"your-github-token", "GITLAB_TOKEN":"your-gitlab-token" } }

GITHUB_TOKEN: tu token de Github GITLAB_TOKEN: tu token de Gitlab

Herramientas

obtener_repositorio_de_gitlab

  • Procesar y devolver el código de una rama del repositorio de GitLab como texto

  • Aporte:

    • repo_url (cadena): la URL del repositorio de gitlab

    • rama (cadena): el nombre de la rama, el valor predeterminado es master

  • Devuelve (cadena): toda la información y la estructura del proyecto desde el repositorio como texto.

obtener_repositorio_de_github

  • Procesar y devolver el código de una rama del repositorio de Github como texto

  • Aporte:

    • repo_url (cadena): la URL del repositorio de github

    • rama (cadena): el nombre de la rama, el valor predeterminado es master

  • Devuelve (cadena): toda la información y la estructura del proyecto desde el repositorio como texto.

obtener_repositorio_local

  • Procesar y devolver el código de una rama del repositorio de GitLab como texto

  • Aporte:

    • repo_url (cadena): la ruta del repositorio

  • Devuelve (cadena): toda la información y la estructura del proyecto desde el repositorio como texto.

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/crisschan/mcp-repo2llm'

If you have feedback or need assistance with the MCP directory API, please join our Discord server