Skip to main content
Glama

MySQL Hub MCP Server

by CHOIJun-0613
ai_providers.py6.55 kB
""" AI Provider별 LLM 관리 모듈 각 AI Provider에 맞는 LLM 설정과 연결을 관리합니다. """ import os import logging from abc import ABC, abstractmethod from typing import Optional, Dict, Any # Google ADK 모델들 try: from google.adk.models.google_llm import Gemini GOOGLE_LLM_AVAILABLE = True except ImportError: # Gemini가 없는 경우 플래그로 관리 Gemini = None GOOGLE_LLM_AVAILABLE = False try: from google.adk.models.lite_llm import LiteLlm LITE_LLM_AVAILABLE = True except ImportError: # LiteLlm이 없는 경우 플래그로 관리 LiteLlm = None LITE_LLM_AVAILABLE = False # AI 설정 try: from ai_config import ai_config except ImportError: # 상대 import 시도 try: from .ai_config import ai_config except ImportError: # 절대 경로 import 시도 from ai_config import ai_config logger = logging.getLogger(__name__) class BaseAIProvider(ABC): """AI Provider 기본 클래스""" @abstractmethod def create_llm(self) -> Any: """LLM 인스턴스를 생성합니다.""" pass @abstractmethod def is_available(self) -> bool: """Provider가 사용 가능한지 확인합니다.""" pass @abstractmethod def get_model_name(self) -> str: """모델명을 반환합니다.""" pass class GoogleAIProvider(BaseAIProvider): """Google Gemini AI Provider""" def __init__(self): self.api_key = ai_config.google_api_key self.model_name = ai_config.gemini_model_name def create_llm(self): """Google Gemini LLM을 생성합니다.""" if not self.is_available(): raise ValueError("Google API 키가 설정되지 않았습니다.") if not GOOGLE_LLM_AVAILABLE: raise ImportError("Gemini 모듈을 사용할 수 없습니다. google-adk 패키지를 설치해주세요.") # 환경변수 설정 (Gemini이 자동으로 읽음) os.environ["GOOGLE_API_KEY"] = self.api_key return Gemini( model_name=self.model_name, temperature=0.1 ) def is_available(self) -> bool: """Google Gemini가 사용 가능한지 확인합니다.""" return self.api_key is not None and GOOGLE_LLM_AVAILABLE def get_model_name(self) -> str: """모델명을 반환합니다.""" return self.model_name class GroqAIProvider(BaseAIProvider): """Groq AI Provider""" def __init__(self): self.api_key = ai_config.groq_api_key self.model_name = ai_config.groq_model_name def create_llm(self): """Groq LLM을 생성합니다.""" if not self.is_available(): raise ValueError("Groq API 키가 설정되지 않았습니다.") if not LITE_LLM_AVAILABLE: raise ImportError("LiteLlm 모듈을 사용할 수 없습니다. lite-llm 패키지를 설치해주세요.") # LiteLlm을 통해 Groq 연결 return LiteLlm( model=f"groq/{self.model_name}", api_key=self.api_key, temperature=0.1 ) def is_available(self) -> bool: """Groq가 사용 가능한지 확인합니다.""" return self.api_key is not None and LITE_LLM_AVAILABLE def get_model_name(self) -> str: """모델명을 반환합니다.""" return self.model_name class LMStudioAIProvider(BaseAIProvider): """LM Studio AI Provider""" def __init__(self): self.base_url = ai_config.lmstudio_base_url self.model_name = ai_config.lmstudio_qwen_model_name def create_llm(self): """LM Studio LLM을 생성합니다.""" if not self.is_available(): raise ValueError("LM Studio가 설정되지 않았습니다.") if not LITE_LLM_AVAILABLE: raise ImportError("LiteLlm 모듈을 사용할 수 없습니다. lite-llm 패키지를 설치해주세요.") # LiteLlm을 통해 LM Studio 연결 return LiteLlm( model=self.model_name, base_url=self.base_url, temperature=0.1 ) def is_available(self) -> bool: """LM Studio가 사용 가능한지 확인합니다.""" # LM Studio는 로컬에서 실행되므로 LiteLlm만 사용 가능한지 확인 return LITE_LLM_AVAILABLE def get_model_name(self) -> str: """모델명을 반환합니다.""" return self.model_name class AIProviderManager: """AI Provider 관리자""" def __init__(self): self.providers = { "google": GoogleAIProvider(), "groq": GroqAIProvider(), "lmstudio": LMStudioAIProvider() } self.current_provider_name = ai_config.get_current_provider() def get_current_provider(self) -> BaseAIProvider: """현재 설정된 Provider를 반환합니다.""" provider = self.providers.get(self.current_provider_name) if not provider: logger.warning(f"알 수 없는 AI Provider: {self.current_provider_name}, Google로 기본 설정") return self.providers["google"] return provider def create_llm(self): """현재 Provider에 맞는 LLM을 생성합니다.""" provider = self.get_current_provider() if not provider.is_available(): logger.warning(f"현재 Provider '{self.current_provider_name}'가 사용 불가능합니다.") # Google으로 폴백 fallback_provider = self.providers["google"] if fallback_provider.is_available(): logger.info("Google Gemini로 폴백합니다.") return fallback_provider.create_llm() else: raise ValueError("사용 가능한 AI Provider가 없습니다.") logger.info(f"AI Provider '{self.current_provider_name}' 사용, 모델: {provider.get_model_name()}") return provider.create_llm() def get_provider_info(self) -> Dict[str, Any]: """현재 Provider 정보를 반환합니다.""" provider = self.get_current_provider() return { "provider": self.current_provider_name, "model": provider.get_model_name(), "available": provider.is_available() } # 전역 AI Provider Manager 인스턴스 ai_provider_manager = AIProviderManager()

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/CHOIJun-0613/mysql-hub-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server