Skip to main content
Glama

Ontology MCP

by bigdata-coss

mcp_gemini_generate_text

Generate text using the Gemini AI model by defining prompt, model ID, and parameters like temperature, max tokens, topK, and topP for tailored outputs.

Instructions

Gemini AI 모델을 사용하여 텍스트를 생성합니다.

Input Schema

NameRequiredDescriptionDefault
max_tokensNo생성할 최대 토큰 수
modelYes사용할 Gemini 모델 ID (예: gemini-pro, gemini-1.5-pro 등)
promptYes텍스트 생성을 위한 프롬프트
temperatureNo생성 랜덤성 정도 (0.0 - 2.0)
topKNo각 위치에서 고려할 최상위 토큰 수
topPNo확률 질량의 상위 비율을 선택하는 임계값

Input Schema (JSON Schema)

{ "properties": { "max_tokens": { "default": 1024, "description": "생성할 최대 토큰 수", "type": "number" }, "model": { "description": "사용할 Gemini 모델 ID (예: gemini-pro, gemini-1.5-pro 등)", "type": "string" }, "prompt": { "description": "텍스트 생성을 위한 프롬프트", "type": "string" }, "temperature": { "default": 0.7, "description": "생성 랜덤성 정도 (0.0 - 2.0)", "type": "number" }, "topK": { "default": 40, "description": "각 위치에서 고려할 최상위 토큰 수", "type": "number" }, "topP": { "default": 0.95, "description": "확률 질량의 상위 비율을 선택하는 임계값", "type": "number" } }, "required": [ "model", "prompt" ], "type": "object" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server