# MCP PII Tools 환경변수 템플릿
# 이 파일을 .env로 복사하고 실제 값으로 수정하세요
# =============================================================================
# 공통 설정
# =============================================================================
# PII 암호화를 위한 마스터 키 (선택사항)
# 설정하지 않으면 자동으로 기본값 "pii_master_key_1!smartmind" 사용
#
# 보안을 위해 운영 환경에서는 고유한 마스터 키 사용을 권장합니다:
# - 32자 이상의 안전한 문자열 사용
# - 예: openssl rand -base64 32
# - 예: python -c "import secrets; print(secrets.token_urlsafe(32))"
#
# 주의: 마스터 키를 변경하면 기존에 암호화된 데이터를 복호화할 수 없습니다!
# PII_MASTER_KEY=your_secure_master_key_here
# =============================================================================
# AI 모델 Provider 설정 (둘 중 하나 선택)
# =============================================================================
# Provider 선택 (openai 또는 vllm)
# 기본값: openai
PII_PROVIDER=openai
# =============================================================================
# OpenAI 설정 (PII_PROVIDER=openai일 때)
# =============================================================================
# OpenAI API 키 (OpenAI 사용 시 필수)
# https://platform.openai.com/api-keys 에서 발급받으세요
OPENAI_API_KEY=your_openai_api_key_here
# OpenAI 모델 ID (기본값: gpt-4o)
# PII_MODEL_ID=gpt-4o
# =============================================================================
# vLLM 설정 (PII_PROVIDER=vllm일 때)
# =============================================================================
# vLLM API 키 (vLLM 사용 시 필수)
# VLLM_API_KEY=your_vllm_api_key_here
# vLLM 서버 URL (기본값: https://qwen.smartmind.team/v1)
# VLLM_BASE_URL=https://qwen.smartmind.team/v1
# vLLM 모델 ID (기본값: qwen3-235b-awq)
# PII_MODEL_ID=qwen3-235b-awq
# =============================================================================
# 선택적 설정
# =============================================================================
# 로그 레벨 (기본값: INFO)
# LOG_LEVEL=INFO
# PII 탐지 민감도 (기본값: 0.8)
# PII_SENSITIVITY=0.8
# vLLM 요청 타임아웃 (초, 기본값: 600)
# VLLM_TIMEOUT=600
# vLLM 온도 (기본값: 0.0)
# VLLM_TEMPERATURE=0.0
# vLLM 최대 토큰 수 (기본값: 4096)
# VLLM_MAX_TOKENS=4096
# vLLM API 키 (vLLM 사용 시 필수, OPENAI_API_KEY와 동일하게 사용 가능)
# VLLM_API_KEY=your_vllm_api_key_here
# vLLM 서버 URL (기본값: https://qwen.smartmind.team/v1)
# VLLM_BASE_URL=https://qwen.smartmind.team/v1
# =============================================================================
# 추가 정보
# =============================================================================
# PII_MASTER_KEY 사용법:
# 1. 설정하지 않으면 자동으로 "pii_master_key_1!smartmind" 사용
# 2. 개발/테스트 환경에서는 기본값 사용 가능
# 3. 운영 환경에서는 반드시 고유한 키 사용 권장
# 4. 마스터 키 변경 시 기존 암호화 데이터 복호화 불가능
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/czangyeob/mcp-pii-tools'
If you have feedback or need assistance with the MCP directory API, please join our Discord server