Skip to main content
Glama

ado-mcp-server

Servidor MCP (Model Context Protocol) para integração com Azure DevOps Boards. Permite interagir com work items através de uma interface padronizada, facilitando automações e integrações com ferramentas que suportam o protocolo MCP.

Instalação

pnpm install

Uso

Para iniciar o servidor em modo desenvolvimento:

sh start-mcp-dev.sh

Para iniciar o servidor em modo produção:

sh start-mcp-server.sh

Integração com Gemini CLI

Para usar este servidor MCP com o Gemini CLI, siga os passos abaixo:

1. Construir o projeto

pnpm install pnpm run build

2. Configurar variáveis de ambiente

Crie um arquivo .env com suas credenciais do Azure DevOps ou configure as variáveis diretamente no gemini-mcp-config.json.

3. Adicionar ao Gemini CLI

# Navegue para o diretório do projeto cd ado-mcp-server # Adicione o servidor MCP ao Gemini CLI gemini mcp add ado-mcp node --enable-source-maps dist/index.js --cwd $(pwd)

4. Verificar configuração

gemini mcp list

5. Usar no Gemini CLI

gemini --model='gemini-2.0-flash'

Para mais detalhes sobre a configuração, consulte:

  • GEMINI_SETUP.md - Configuração detalhada

  • MCP_GEMINI_SETUP.md - Instruções específicas do MCP

Requisitos

  • Node.js 18+: runtime JavaScript necessário

  • pnpm: gerenciador de pacotes (recomendado)

  • Azure DevOps Personal Access Token: token de acesso com permissões de leitura/escrita nos work items

  • Configuração de ambiente: arquivo .env com as seguintes variáveis:

    • ADO_PAT: Personal Access Token do Azure DevOps

    • ADO_ORG: URL completa da organização (ex: https://dev.azure.com/minhaorg)

    • ADO_PROJECT: Nome do projeto no Azure DevOps

Ferramentas MCP expostas

O servidor MCP expõe as seguintes ferramentas para integração com o Azure DevOps:

  • list_work_items: lista todos os work items ordenados pela query configurada no Azure DevOps

  • get_next_card: retorna o próximo card da fila ordenada, útil para workflows de desenvolvimento

  • complete_card: atualiza o estado de um work item específico (ex.: mover para "Done", "In Progress", etc.)

  • add_comment: adiciona comentários em work items para documentar progresso ou observações

  • get_top_cards: retorna os N primeiros work items da fila ordenada (padrão: 5), ideal para visualizar prioridades

Colaboração

Contribuições são bem-vindas! Para colaborar:

  1. Fork: Faça um fork do repositório

  2. Branch: Crie uma branch para sua feature ou correção (git checkout -b feature/nova-funcionalidade)

  3. Commit: Faça commits descritivos das suas mudanças

  4. Push: Envie suas mudanças (git push origin feature/nova-funcionalidade)

  5. Pull Request: Abra um pull request descrevendo as alterações

Licença

MIT

-
security - not tested
-
license - not tested
-
quality - not tested

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lisearantes/ado-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server