MCP bayesiano
Un servidor de Protocolo de Llamada a Modelos (MCP) para razonamiento bayesiano, inferencia y actualización de creencias. Esta herramienta permite a los LLM realizar análisis bayesianos rigurosos y razonamiento probabilístico.
Características
🧠 Inferencia bayesiana : Actualice las creencias con nueva evidencia utilizando el muestreo MCMC
📊 Comparación de modelos : compare modelos de la competencia utilizando criterios de información
🔮 Inferencia predictiva : Genera predicciones con cuantificación de incertidumbre
📈 Visualización : Crea visualizaciones de distribuciones posteriores
🔌 Integración con MCP : se integra perfectamente con cualquier LLM que admita MCP
Related MCP server: Calculator MCP Server
Instalación
Instalación de desarrollo
Clonar el repositorio e instalar las dependencias:
Requisitos
Python 3.9+
PyMC 5.0+
ArviZ
NumPy
Matplotlib
API rápida
Uvicornio
Inicio rápido
Iniciando el servidor
El servidor se iniciará y escuchará las solicitudes MCP en el host y puerto especificados.
Uso de la API
El servidor MCP bayesiano expone varias funciones a través de su API:
1. Crear modelo
Crea un nuevo modelo bayesiano con variables específicas.
2. Actualizar creencias
Actualizar las creencias del modelo con nueva evidencia.
3. Haz predicciones
Generar predicciones utilizando la distribución posterior.
4. Comparar modelos
Comparar múltiples modelos utilizando criterios de información.
5. Crear visualización
Generar visualizaciones de distribuciones posteriores del modelo.
Ejemplos
El directorio examples/ contiene varios ejemplos que demuestran cómo utilizar el servidor MCP bayesiano:
Regresión lineal
Un ejemplo de regresión lineal simple para demostrar la estimación de parámetros:
Pruebas A/B
Un ejemplo de prueba A/B bayesiana para tasas de conversión:
Distribuciones compatibles
El motor bayesiano admite las siguientes distribuciones:
normal: distribución normal (gaussiana)lognormal: distribución log-normalbeta: distribución betagamma: distribución gammaexponential: distribución exponencialuniform: distribución uniformebernoulli: distribución de Bernoullibinomial: distribución binomialpoisson: distribución de Poissondeterministic: transformación determinista
Integración MCP
Este servidor implementa el Protocolo de Llamada de Modelos, lo que lo hace compatible con una amplia gama de LLM y frameworks. Para usarlo con su LLM:
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Créditos
Basado en conceptos y código del marco Wrench AI.