Skip to main content
Glama

OpenFGA MCP

by evansims

Servidor MCP OpenFGA

Un servidor experimental de Protocolo de Contexto de Modelo (MCP) que permite a los Modelos de Lenguaje Grandes (LLM) leer, buscar y manipular almacenes OpenFGA . Facilita la autorización para IA con agentes y la codificación de vibraciones de grano fino ✨ para humanos.

Requisitos

Características

Herramientas

Gestión de tiendas
  • create_store : Crea una nueva tienda. ( create-store )
  • list_stores : Lista todas las tiendas. ( list-stores )
  • get_store : Obtener los detalles de una tienda. ( get-store )
  • delete_store : Eliminar una tienda. ( delete-store )
  • get_store_id_by_name : obtiene el ID de una tienda por su nombre.
Gestión del modelo de autorización
Gestión de tuplas de relaciones
Consultas de relación
  • check : Comprueba si un usuario tiene una relación con un objeto. ( comprobar )
  • list_objects : enumera objetos de un tipo con el que un usuario tiene una relación. ( list-objects )
  • list_users : enumera los usuarios que tienen una relación determinada con un objeto determinado. ( list-users )

Recursos

Indicaciones

Uso

Recomendamos ejecutar el servidor utilizando UVX :

uvx openfga-mcp@latest

Instalación mediante herrería

Para instalar OpenFGA MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @evansims/openfga-mcp --client claude

Configuración

El servidor acepta los siguientes argumentos:

  • --openfga_url : URL de su servidor OpenFGA
  • --openfga_store : ID del almacén OpenFGA que utilizará el servidor MCP
  • --openfga_model : ID del modelo de autorización OpenFGA que utilizará el servidor MCP

Para la autenticación del token API:

  • --openfga_token : token de API para usar con su servidor OpenFGA

Para la autenticación de credenciales de cliente:

  • --openfga_client_id : ID de cliente para usar con su servidor OpenFGA
  • --openfga_client_secret : Secreto de cliente para usar con su servidor OpenFGA
  • --openfga_api_issuer : emisor de API para usar con su servidor OpenFGA
  • --openfga_api_audience : audiencia de API para usar con su servidor OpenFGA

Por ejemplo:

uvx openfga-mcp@latest \ --openfga_url="http://127.0.0.1:8080" \ --openfga_store="your-store-id" \ --openfga_model="your-model-id"

Uso con Claude Desktop

Para configurar a Claude para que use el servidor, agregue lo siguiente a su configuración de Claude:

{ "mcpServers": { "openfga-mcp": { "command": "uvx", "args": ["openfga-mcp@latest"] } } }
  • Quizás necesite especificar la ruta completa del ejecutable uvx . Use which uvx para encontrarlo.
  • Debes reiniciar Claude después de actualizar la configuración.

Uso con Raycast

Uso con cursor

Uso con Windsurf

Desarrollo

Para configurar su entorno de desarrollo, ejecute:

make setup

Para ejecutar el servidor de desarrollo:

make run \ --openfga_url="http://127.0.0.1:8080" \ --openfga_store="your-store-id" \ --openfga_model="your-model-id"

Para ejecutar el servidor de desarrollo con el Inspector MCP:

make dev

Licencia

Apache 2.0

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor de protocolo de contexto de modelo experimental que permite que los modelos de lenguaje grandes lean, busquen y manipulen almacenes de autorización OpenFGA, desbloqueando un control de acceso de grano fino para la IA agencial y las interacciones de lenguaje natural.

  1. Requisitos
    1. Características
      1. Herramientas
      2. Recursos
      3. Indicaciones
    2. Uso
      1. Instalación mediante herrería
      2. Configuración
      3. Uso con Claude Desktop
      4. Uso con Raycast
      5. Uso con cursor
      6. Uso con Windsurf
    3. Desarrollo
      1. Licencia

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          A server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.
          Last updated -
          378
          96
          TypeScript
          MIT License
          • Apple
        • -
          security
          F
          license
          -
          quality
          A Model Context Protocol server that enables Large Language Models to access and interact with database connections, including viewing schemas and performing CRUD operations on connected databases.
          Last updated -
          • Apple
        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that provides AI agents with secure access to local filesystem operations, enabling reading, writing, and managing files through a standardized interface.
          Last updated -
          160
          3
          TypeScript
          Apache 2.0
        • A
          security
          A
          license
          A
          quality
          A Model Context Protocol server that connects Large Language Models to the GeoServer REST API, enabling AI assistants to query and manipulate geospatial data through natural language.
          Last updated -
          9
          18
          Python
          MIT License
          • Linux
          • Apple

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/evansims/openfga-mcp'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server