Bayesian MCP

Integrations

  • Uses FastAPI to expose the Bayesian MCP server API endpoints for model creation, belief updating, prediction generation, model comparison, and visualization.

  • Provides installation instructions for cloning the repository from GitHub to set up the Bayesian MCP server.

  • Utilizes NumPy for numerical computations in Bayesian inference, handling arrays and mathematical operations for probabilistic models.

MCP bayesiano

Un servidor de Protocolo de Llamada a Modelos (MCP) para razonamiento bayesiano, inferencia y actualización de creencias. Esta herramienta permite a los LLM realizar análisis bayesianos rigurosos y razonamiento probabilístico.

Características

  • 🧠 Inferencia bayesiana : Actualice las creencias con nueva evidencia utilizando el muestreo MCMC
  • 📊 Comparación de modelos : compare modelos de la competencia utilizando criterios de información
  • 🔮 Inferencia predictiva : Genera predicciones con cuantificación de incertidumbre
  • 📈 Visualización : Crea visualizaciones de distribuciones posteriores
  • 🔌 Integración con MCP : se integra perfectamente con cualquier LLM que admita MCP

Instalación

Instalación de desarrollo

Clonar el repositorio e instalar las dependencias:

git clone https://github.com/wrenchchatrepo/bayesian-mcp.git cd bayesian-mcp pip install -e .

Requisitos

  • Python 3.9+
  • PyMC 5.0+
  • ArviZ
  • NumPy
  • Matplotlib
  • API rápida
  • Uvicornio

Inicio rápido

Iniciando el servidor

# Run with default settings python bayesian_mcp.py # Specify host and port python bayesian_mcp.py --host 0.0.0.0 --port 8080 # Set log level python bayesian_mcp.py --log-level debug

El servidor se iniciará y escuchará las solicitudes MCP en el host y puerto especificados.

Uso de la API

El servidor MCP bayesiano expone varias funciones a través de su API:

1. Crear modelo

Crea un nuevo modelo bayesiano con variables específicas.

# MCP Request { "function_name": "create_model", "parameters": { "model_name": "my_model", "variables": { "theta": { "distribution": "normal", "params": {"mu": 0, "sigma": 1} }, "likelihood": { "distribution": "normal", "params": {"mu": "theta", "sigma": 0.5}, "observed": [0.1, 0.2, 0.3, 0.4] } } } }

2. Actualizar creencias

Actualizar las creencias del modelo con nueva evidencia.

# MCP Request { "function_name": "update_beliefs", "parameters": { "model_name": "my_model", "evidence": { "data": [0.1, 0.2, 0.3, 0.4] }, "sample_kwargs": { "draws": 1000, "tune": 1000, "chains": 2 } } }

3. Haz predicciones

Generar predicciones utilizando la distribución posterior.

# MCP Request { "function_name": "predict", "parameters": { "model_name": "my_model", "variables": ["theta"], "conditions": { "x": [1.0, 2.0, 3.0] } } }

4. Comparar modelos

Comparar múltiples modelos utilizando criterios de información.

# MCP Request { "function_name": "compare_models", "parameters": { "model_names": ["model_1", "model_2"], "metric": "waic" } }

5. Crear visualización

Generar visualizaciones de distribuciones posteriores del modelo.

# MCP Request { "function_name": "create_visualization", "parameters": { "model_name": "my_model", "plot_type": "trace", "variables": ["theta"] } }

Ejemplos

El directorio examples/ contiene varios ejemplos que demuestran cómo utilizar el servidor MCP bayesiano:

Regresión lineal

Un ejemplo de regresión lineal simple para demostrar la estimación de parámetros:

python examples/linear_regression.py

Pruebas A/B

Un ejemplo de prueba A/B bayesiana para tasas de conversión:

python examples/ab_test.py

Distribuciones compatibles

El motor bayesiano admite las siguientes distribuciones:

  • normal : distribución normal (gaussiana)
  • lognormal : distribución log-normal
  • beta : distribución beta
  • gamma : distribución gamma
  • exponential : distribución exponencial
  • uniform : distribución uniforme
  • bernoulli : distribución de Bernoulli
  • binomial : distribución binomial
  • poisson : distribución de Poisson
  • deterministic : transformación determinista

Integración MCP

Este servidor implementa el Protocolo de Llamada de Modelos, lo que lo hace compatible con una amplia gama de LLM y frameworks. Para usarlo con su LLM:

import requests response = requests.post("http://localhost:8000/mcp", json={ "function_name": "create_model", "parameters": { "model_name": "example_model", "variables": {...} } }) result = response.json()

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Créditos

Basado en conceptos y código del marco Wrench AI.

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de protocolo de llamada de modelos que permite a los LLM realizar análisis bayesianos rigurosos y razonamiento probabilístico, incluida la inferencia, la comparación de modelos y el modelado predictivo con cuantificación de incertidumbre.

  1. Características
    1. Instalación
      1. Instalación de desarrollo
      2. Requisitos
    2. Inicio rápido
      1. Iniciando el servidor
    3. Uso de la API
      1. Crear modelo
      2. Actualizar creencias
      3. Haz predicciones
      4. Comparar modelos
      5. Crear visualización
    4. Ejemplos
      1. Regresión lineal
      2. Pruebas A/B
    5. Distribuciones compatibles
      1. Integración MCP
        1. Licencia
          1. Créditos

            Related MCP Servers

            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server that enables LLMs to analyze options chains, calculate Greeks, and evaluate basic options strategies through Yahoo Finance data.
              Last updated -
              4
              Python
              MIT License
              • Apple
              • Linux
            • A
              security
              A
              license
              A
              quality
              A Model Context Protocol server that provides basic mathematical and statistical functions to LLMs, enabling them to perform accurate numerical calculations through a simple API.
              Last updated -
              13
              2
              TypeScript
              MIT License
            • A
              security
              A
              license
              A
              quality
              A Model Context Protocol server that enables LLMs to perform precise numerical calculations by evaluating mathematical expressions.
              Last updated -
              1
              48
              Python
              MIT License
              • Linux
              • Apple
            • -
              security
              F
              license
              -
              quality
              Enables LLMs to perform statistical analysis and generate ML predictions on user data from databases or CSV files through a Model Context Protocol server.
              Last updated -
              Python

            View all related MCP servers

            ID: om8g7ez16q