We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/nickdesi/FFBB-MCP-Server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server
Dockerfile•817 B
# Utilise l'image officielle python slim
FROM python:3.12-slim
# Environnement optimisé pour l'exécution Python
ENV PYTHONDONTWRITEBYTECODE=1 \
PYTHONUNBUFFERED=1 \
MCP_MODE=http \
PORT=9123 \
HOST=0.0.0.0
WORKDIR /app
# Install git since pyproject.toml relies on a github repository
RUN apt-get update && apt-get install -y git && rm -rf /var/lib/apt/lists/*
# Installation de 'uv' pour une installation plus rapide et stricte (optionnel mais fortement recommandé)
COPY --from=ghcr.io/astral-sh/uv:0.4.15 /uv /bin/uv
# On copie tout le code source, car pyproject.toml a besoin de README.md et du dossier src pour le build
COPY . /app/
# Installe les dépendances avec uv
RUN uv pip install --system --no-cache .
# Expose le port de l'app
EXPOSE 9123
# Lancement de l'app
CMD ["ffbb-mcp"]