remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides the backend framework for the MCP server implementation
Powers the frontend interface that allows users to interact with LLMs through a simple UI
Aplicación básica de MCP
Una aplicación sencilla que muestra cómo funciona el Protocolo de contexto de modelo (MCP) con FastAPI y Gradio (porque no soy un desarrollador que disfrute de los dolores de cabeza que genera Streamlit).
Descripción general
Este proyecto demuestra un servidor MCP básico con una interfaz Gradio (Streamlit fue un dolor de cabeza, y la vida es demasiado corta para dolores innecesarios). Los usuarios pueden chatear con modelos de IA a través de lo que los expertos en marketing llamarían una "interfaz sencilla" y lo que los desarrolladores conocen como "lo mejor que pude hacer antes de seguir adelante 🥲".
Pila de tecnología
- Backend : FastAPI + MCP Python SDK (una combinación perfecta, a diferencia de la piña en la pizza)
- Interfaz : Gradio (porque los botones bonitos hacen que la dopamina suene brrr)
- Integración de IA : API de Google Gemini (no el signo del horóscopo, la IA de Sundar Pichai)
Problemas conocidos
⚠️ Tenga en cuenta
- La herramienta de citas no funciona correctamente en este momento. Es posible que veas errores al analizar citas de artículos o al usar algunas funciones de búsqueda avanzada. Estoy trabajando para solucionar este problema. ¿Cuándo se solucionará? Quién sabe... ¯\_(ツ)_/¯. Quizás cuando tengamos inteligencia artificial general.
- La API de Semantic Scholar tiene limitaciones de velocidad, lo que puede provocar que la función de búsqueda a veces muestre un mensaje de error que indica "No puedo buscar ni proporcionarle artículos directamente". Esto es lo que ocurre cuando las API gratuitas se encuentran con usuarios entusiastas; nos encantan. Espera un poco y vuelve a intentarlo (o tómate un café mientras se restablecen los límites de velocidad).
Acelere su configuración
Este proyecto funciona de maravilla con uv
, ¡un instalador de paquetes de Python rapidísimo! En lugar de esperar a que pip termine en el próximo siglo, puedes usar uv
para instalar dependencias en segundos. Lo recomiendo encarecidamente para una experiencia más fluida (y para ahorrarte horas mirando las barras de progreso).
Inicio rápido
Lo que necesitarás
- Python 3.11 o más reciente (lo siento, dinosaurios que todavía usan Python 2)
- Administrador de paquetes pip (o su primo más rápido y genial
uv
) - La paciencia de un RCB (búscalos en Google) (opcional pero recomendado)
Pasos de configuración
- Clonar este proyecto:Copy
- Crea un entorno virtual (porque las dependencias globales son el camino al daño emocional):Copy
- Instalar los paquetes necesarios:Usando pip (el método tortuga):Usando uv (el camino de la liebre que realmente gana la carrera):CopyoCopyLuego instala las dependencias con uv:CopyUsarCopy
uv
hace que la instalación de paquetes de Python sea un éxito. Es mucho más rápido que pip normal (¡promesa!). En el tiempo que tarda pip en entender lo que le has pedido, uv ya ha terminado, preparado café y empezado a escribir tu próxima aplicación. - Configura tus claves API (las cosas que nunca deberías enviar a GitHub pero que alguien siempre hace de todas formas):Copy
- Ejecute ambos servidores con un solo comando (como por arte de magia, pero con más punto y coma):Esto inicia el backend y el frontend a la vez. Es como tener el pastel y comérselo también, pero con menos calorías.También puedes iniciarlos por separado si es necesario (para los fanáticos del control entre nosotros):Copy
- Backend:
uvicorn backend.main:app --reload
- Interfaz:
python frontend/app.py
- Backend:
- Abra su navegador web y vaya a http://localhost:8501 (si esto no funciona, intente apagarlo y encenderlo nuevamente 😑)
Archivos del proyecto
Observa esta hermosa estructura de directorio que nunca permanecerá tan limpia una vez que el desarrollo realmente comience:
Características
- Búsqueda de artículos científicos con Semantic Scholar (para cuando Google Scholar es demasiado común)
- Herramientas de análisis de papel (que funcionan el 60 % del tiempo, siempre)
- Interfaz de chat sencilla (simple para los usuarios, pesadilla para los desarrolladores)
- Proceso de instalación sencillo (si alguna vez has escalado el Everest, te parecerá un paseo por el parque)
Licencia
MIT (Porque soy amable y tampoco quiero leer licencias largas)
Gracias
- Antrópico para MCP - https://www.anthropic.com/news/model-context-protocol
- https://modelcontextprotocol.io/introduction
- Claude por codificar las partes de la demostración, no completamente, solo un poquito 🤏.
This server cannot be installed
Una aplicación sencilla que demuestra la integración del Protocolo de Contexto de Modelo (MCP) con FastAPI y Streamlit, permitiendo a los usuarios interactuar con LLM a través de una interfaz limpia.