Skip to main content
Glama

MCP: Multi-Agent Control Point

by Gomezzz299
experto_llm.cpython-312.pyc1.88 kB
� �:0h��,�ddlZddlmZGd�d�Zy)�N)�Optionalc�&�eZdZdZd�Zdedefd�Zy)�AgenteLLMExpertou� Agente que utiliza un modelo LLM experto (como deepseek-r1:7b) para responder preguntas técnicas. Ejecuta el modelo a través de la línea de comandos usando Ollama. c��d|_y)zK Inicializa el agente con el nombre del modelo a utilizar. zdeepseek-r1:7bN)�model)�selfs �0/home/agomez/Proyectos/MCP/agents/experto_llm.py�__init__zAgenteLLMExperto.__init__ s ��&�� ��mensaje�returnc��d|��}dd|j|g}tj|dd��}|jj �xsdS)u� Ejecuta el modelo experto a través de Ollama para responder la pregunta dada. Args: mensaje (str): Pregunta técnica formulada por el usuario. registry (Optional[object]): Referencia al registro de agentes (no usado directamente aquí). Returns: str: Respuesta generada por el modelo, o mensaje de error si no se obtiene salida. uOEres un asistente experto en temas técnicos. Responde con claridad. Pregunta: �ollama�runT)�capture_output�textu.❌ No se obtuvo respuesta del modelo experto.)r� subprocessr�stdout�strip)rr �prompt�cmd�ress r � responderzAgenteLLMExperto.respondersU�� � � � #� � ��� � �F�3���n�n�S��D�A���z�z���!�U�%U�Ur N)�__name__� __module__� __qualname__�__doc__r �strr�r r rrs"��� &� V��V��Vr r)r�typingrrrr r �<module>r!s���� V� Vr

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Gomezzz299/MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server