Skip to main content
Glama

Storm MCP Server

by sionic-ai

Servidor Storm MCP con RAG sin servidor de Sionic AI

coreano

Servidor Storm MCP (Protocolo de contexto de modelo)

Storm MCP (Protocolo de contexto modelo) LLM LLM RAG RAG 하는 개방형 프로토콜입니다.

Plataforma Sionic AI Storm https://sionicstorm.ai API Token Quiero saber Sí.

Usar

imagen de ejemploimagen de ejemplo 2imagen de ejemplo 3

La clave API es scripts/run.sh y se export STORM_API_KEY='' .

Por favor seleccione
  • Lo siento por los inconvenientes ocasionados.
  • Mensaje : Mensaje (enviar_chat_no_stream, lista_agentes, lista_buckets, cargar_documento_por_archivo).
  • 파일 관리 : 파일 업로드, 읽기 및 관리를 위한 파일 시스템 작업을 구현합니다.
  • Servicio API : Servicio API de Storm.
Formación profesional
  • main.py : código MCP.
  • core/file_manager.py : FileSystemManager archivos .
  • core/internal_api.py : API REST de Storm.
  • tools/tool_definitions.py : Configuración de MCP.
  • tools/tool_handlers.py : Controladores.
  • tools/tool_upload_file.py : archivo de descarga de MCP.
Una cocina

MCP (LLM), (LLM), (LLM) Storm MCP Storm MCP versión LLM.

Cómo empezar

Escritorio Claude MCP

imagen de ejemplo

  1. Abra el archivo de instalación
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
  1. Datos JSON Datos MCP:
{ "mcpServers": { "storm": { "command": "sh", "args": [ "/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh" ] } } }

japonés

Servidor Storm MCP (Protocolo de contexto de modelo)

El servidor MCP (Protocolo de contexto de modelo) Storm es un protocolo abierto que permite una integración perfecta entre las aplicaciones LLM y las fuentes de datos y herramientas RAG. Implementa el Protocolo de Contexto de Modelo de Anthropic, lo que le permite utilizar la Plataforma Storm directamente en Claude Desktop.

Al integrarse con la plataforma Storm de Sionic AI, puede conectar y utilizar sus propios y potentes productos de bases de datos vectoriales y modelos integrados. Puede registrarse por agente en https://sionicstorm.ai para obtener un token API y crear su solución RAG de inmediato.

Ejemplo de uso

imagen de ejemploimagen de ejemplo 2imagen de ejemplo 3

Ingrese la clave API en export STORM_API_KEY='' en scripts/run.sh .

Características principales
  • Compartir contexto : proporciona un protocolo estándar para la interacción entre LLM y las fuentes de datos.
  • Sistema de herramientas : proporciona una forma estandarizada de definir e invocar herramientas (send_nonstream_chat, list_agents, list_buckets, upload_document_by_file, etc.).
  • Gestión de archivos : implementa operaciones del sistema de archivos para cargar, leer y administrar archivos.
  • Integración de API : conéctese a los puntos finales de API de Storm para proporcionar una variedad de funciones.
Estructura del proyecto
  • main.py : inicializa el servidor MCP y configura los controladores de eventos.
  • core/file_manager.py : Implementa la clase FileSystemManager para operaciones de archivos.
  • core/internal_api.py : contiene funciones de cliente API para interactuar con los puntos finales de API REST de Storm.
  • tools/tool_definitions.py : define las herramientas disponibles en el servidor MCP.
  • tools/tool_handlers.py : Implementa controladores para operaciones de herramientas.
  • tools/tool_upload_file.py : Implementa un servidor de archivos separado para operaciones de archivos con su propio controlador MCP.
arquitectura

MCP está diseñado con una estructura de tres capas entre el host (aplicación LLM), el cliente (implementación del protocolo) y el servidor (proveedor de funciones). El servidor Storm MCP implementa la parte de servidor de esto y proporciona recursos y herramientas al LLM.

Cómo empezar

Para conectar un servidor MCP en un entorno de Claude Desktop , se deben aplicar las siguientes configuraciones:

imagen de ejemplo

  1. Abrir un archivo de configuración
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
  1. Agregue la configuración del servidor MCP en JSON:
{ "mcpServers": { "storm": { "command": "sh", "args": [ "/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh" ] } } }
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de protocolo abierto que implementa el Protocolo de Contexto de Modelo de Anthropic para permitir una integración perfecta entre las aplicaciones LLM y las fuentes de datos RAG utilizando la Plataforma Storm de Sionic AI.

  1. coreano
    1. Servidor Storm MCP (Protocolo de contexto de modelo)
  2. japonés
    1. Servidor Storm MCP (Protocolo de contexto de modelo)
    2. Cómo empezar

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    This server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.
    Last updated -
    9
    Python
    MIT License
  • -
    security
    F
    license
    -
    quality
    A Model Context Protocol server that enables web browsing, data extraction, and complex web tasks automation through Raccoon AI's LAM API.
    Last updated -
    Python
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server that enables LLMs to interact with databases (currently MongoDB) through natural language, supporting operations like querying, inserting, deleting documents, and running aggregation pipelines.
    Last updated -
    TypeScript
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol server that enables LLMs to interact with all MonkeyType API endpoints, providing access to typing test data, user profiles, leaderboards, and statistics through natural language.
    Last updated -
    20
    1
    JavaScript
    MIT License
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sionic-ai/serverless-rag-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server