Skip to main content
Glama

MCP Localization Project

by Skynotdie
  • Linux
  • Apple
ai_setup_guide.md2.77 kB
# 🤖 MCP-OS CLI AI 모델 설치 가이드 ## 현재 상태 MCP-OS CLI는 Mock 모드로 실행 중입니다. 실제 Qwen2.5-Coder AI를 사용하려면 다음 중 하나를 설치해야 합니다. ## 옵션 1: vLLM (권장 - 고성능) ### 설치 ```bash # CUDA가 설치된 경우 ./venv/bin/pip install vllm # 또는 CPU 전용 ./venv/bin/pip install vllm[cpu] ``` ### 장점 - 5-10배 빠른 추론 속도 - PagedAttention으로 메모리 효율성 - 배치 처리 지원 ## 옵션 2: Transformers (안정적) ### 설치 ```bash # 기본 설치 ./venv/bin/pip install transformers torch # GPU 가속 (CUDA 있는 경우) ./venv/bin/pip install transformers torch --index-url https://download.pytorch.org/whl/cu118 # 양자화 지원 (메모리 절약) ./venv/bin/pip install transformers torch bitsandbytes accelerate ``` ### 장점 - 안정적이고 널리 사용됨 - 다양한 모델 지원 - 4-bit/8-bit 양자화 지원 ## 옵션 3: Ollama (가장 쉬움) ### 설치 ```bash # Ollama 설치 curl -fsSL https://ollama.ai/install.sh | sh # Qwen2.5-Coder 모델 다운로드 ollama pull qwen2.5-coder:7b ``` ### 장점 - 가장 쉬운 설치 - 모델 자동 다운로드 - 리소스 관리 자동화 ## 시스템 요구사항 ### 최소 요구사항 - **RAM**: 8GB 이상 - **저장공간**: 10GB 이상 (모델 파일용) - **Python**: 3.8 이상 ### 권장 요구사항 - **RAM**: 16GB 이상 - **GPU**: NVIDIA RTX 3060 이상 (VRAM 8GB+) - **저장공간**: 20GB 이상 ## 설치 후 확인 ```bash # 설치 후 테스트 mky1.0 test # AI 모드 확인 - "🤖 AI 모드: mcp_os" 표시되어야 함 ``` ## 문제 해결 ### CUDA 메모리 부족 ```bash # 환경변수 설정 export CUDA_VISIBLE_DEVICES=0 export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:512 ``` ### 느린 속도 ```bash # 양자화 모델 사용 ./venv/bin/pip install bitsandbytes # 4-bit 양자화 자동 적용됨 ``` ### 모델 다운로드 실패 ```bash # 수동 다운로드 경로 설정 export HF_HOME=/path/to/large/storage export TRANSFORMERS_CACHE=/path/to/large/storage ``` ## 성능 비교 | 방법 | 속도 | 메모리 | 설치 난이도 | 추천도 | |------|------|--------|-------------|--------| | vLLM | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | | Transformers | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | | Ollama | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ## 즉시 시작하기 가장 빠른 시작 방법: ```bash # 1. Transformers 설치 (가장 안정적) ./venv/bin/pip install transformers torch # 2. CLI 실행 mky1.0 # 3. AI와 대화 시작! 💬 안녕하세요! ``` --- **참고**: Mock 모드에서도 파일 편집, 명령 실행 등 대부분의 기능은 정상 작동합니다.

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Skynotdie/mky'

If you have feedback or need assistance with the MCP directory API, please join our Discord server