Skip to main content
Glama
.env.example2.78 kB
# ============ 阿里百炼配置(默认服务商,推荐)============ # API Key(必需) # 获取地址: https://dashscope.console.aliyun.com/apiKey ALIBABA_BAILIAN_API_KEY=your-api-key # API 端点(可选,默认: https://dashscope.aliyuncs.com/compatible-mode/v1) ALIBABA_BAILIAN_ENDPOINT=https://dashscope.aliyuncs.com/compatible-mode/v1 # 模型名称(可选,默认: qwen-plus) # 可选值: qwen-plus, qwen-turbo, qwen-max 等 ALIBABA_BAILIAN_MODEL=qwen-plus # 温度参数(可选,默认: 0.3) # 范围: 0.0 - 2.0 ALIBABA_BAILIAN_TEMPERATURE=0.3 # 最大输出 token 数(可选,默认: 8000) ALIBABA_BAILIAN_MAX_TOKENS=8000 # 请求超时时间(秒,可选,默认: 60) ALIBABA_BAILIAN_TIMEOUT=60 # ============ Google Gemini 配置(可选)============ # API Key(必需,如果使用 Google Gemini) # 获取地址: https://aistudio.google.com/app/apikey GEMINI_API_KEY=your-gemini-api-key # API 基础 URL(可选,自定义端点) # 如果使用 Google AI Studio,留空即可 # 如果使用自定义端点,填写完整 URL GEMINI_BASE_URL= # 模型名称(可选,默认: gemini-2.0-flash-exp) # 可选值: gemini-2.0-flash-exp, gemini-1.5-pro, gemini-1.5-flash 等 GEMINI_MODEL=gemini-2.0-flash-exp # 温度参数(可选,默认: 1.0) # 范围: 0.0 - 2.0 GEMINI_TEMPERATURE=1.0 # 最大输出 token 数(可选,默认: 8000) GEMINI_MAX_OUTPUT_TOKENS=8000 # 请求超时时间(秒,可选,默认: 300) GEMINI_TIMEOUT=300 # ============ OpenAI 兼容接口配置(可选)============ # API Key(必需,如果使用 OpenAI 兼容接口) # 通义千问获取地址: https://dashscope.console.aliyun.com/apiKey # OpenAI 获取地址: https://platform.openai.com/api-keys OPENAI_API_KEY=your-openai-api-key # API 基础 URL(可选) # 如果使用 OpenAI 官方服务,留空即可(默认: https://api.openai.com) # 如果使用通义千问,设置为: https://dashscope.aliyuncs.com/compatible-mode/v1 # 如果使用其他兼容接口(如 DeepSeek),填写对应 URL OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 # 模型名称(可选,默认: qwen-plus) # OpenAI: gpt-4o, gpt-4-turbo, gpt-3.5-turbo 等 # 通义千问: qwen-plus, qwen-turbo, qwen-max 等(推荐使用 qwen-plus) # DeepSeek: deepseek-chat, deepseek-coder 等 OPENAI_MODEL=qwen-plus # 温度参数(可选,默认: 1.0) # 范围: 0.0 - 2.0 OPENAI_TEMPERATURE=1.0 # 最大输出 token 数(可选,默认: 8000) OPENAI_MAX_OUTPUT_TOKENS=8000 # 请求超时时间(秒,可选,默认: 300) OPENAI_TIMEOUT=300 # 自定义端点路径(可选,默认: /v1/chat/completions) # 大多数兼容接口使用默认路径,无需修改 OPENAI_ENDPOINT_TYPE=

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/luyike221/xiaohongshu-mcp-python'

If you have feedback or need assistance with the MCP directory API, please join our Discord server