Ontology MCP

mcp_gemini_generate_text

Utilize the Gemini AI model to generate text by providing a prompt, model ID, and parameters like temperature and token count, integrated within the Ontology MCP server.

Instructions

Gemini AI 모델을 사용하여 텍스트를 생성합니다.

Input Schema

NameRequiredDescriptionDefault
max_tokensNo생성할 최대 토큰 수
modelYes사용할 Gemini 모델 ID (예: gemini-pro, gemini-1.5-pro 등)
promptYes텍스트 생성을 위한 프롬프트
temperatureNo생성 랜덤성 정도 (0.0 - 2.0)
topKNo각 위치에서 고려할 최상위 토큰 수
topPNo확률 질량의 상위 비율을 선택하는 임계값

Input Schema (JSON Schema)

{ "properties": { "max_tokens": { "default": 1024, "description": "생성할 최대 토큰 수", "type": "number" }, "model": { "description": "사용할 Gemini 모델 ID (예: gemini-pro, gemini-1.5-pro 등)", "type": "string" }, "prompt": { "description": "텍스트 생성을 위한 프롬프트", "type": "string" }, "temperature": { "default": 0.7, "description": "생성 랜덤성 정도 (0.0 - 2.0)", "type": "number" }, "topK": { "default": 40, "description": "각 위치에서 고려할 최상위 토큰 수", "type": "number" }, "topP": { "default": 0.95, "description": "확률 질량의 상위 비율을 선택하는 임계값", "type": "number" } }, "required": [ "model", "prompt" ], "type": "object" }
ID: mxvujkgabm