Skip to main content
Glama

mcp-google-sheets

pt.json3.74 kB
{ "Mistral AI provides state-of-the-art open-weight and hosted language models for text generation, embeddings, and reasoning tasks.": "Mistral AI fornece modelos de linguagem com peso aberto e hospedados para a geração de texto, incorporação e tarefas de raciocínio.", "You can obtain your API key from the Mistral AI dashboard. Go to https://console.mistral.ai, generate an API key, and paste it here.": "Você pode obter sua chave de API a partir do painel de controle de IA do Mistral. Vá para https://console.mistral.ai, gere uma chave de API e cole-a aqui.", "Ask Mistral": "Pergunte ao Mistral", "Create Embeddings": "Criar incorporações", "Upload File": "Enviar Arquivo", "List Models": "Listar Modelos", "Custom API Call": "Chamada de API personalizada", "Ask Mistral anything you want!": "Pergunte ao Mistral o que você quiser!", "Creates new embedding in Mistral AI.": "Cria uma nova inserção no Mistral AI.", "Upload a file to Mistral AI (e.g., for fine-tuning or context storage).": "Envie um arquivo para Mistral AI (por exemplo, para ajuste fino ou armazenamento contextual).", "Retrieves a list of available Mistral AI models.": "Recupera uma lista de modelos Mistral IA disponíveis.", "Make a custom API call to a specific endpoint": "Faça uma chamada de API personalizada para um ponto de extremidade específico", "Model": "Modelo", "Question": "Questão", "Temperature": "Temperatura", "Top P": "Superior P", "Max Tokens": "Max Tokens", "Random Seed": "Geração aleatória", "Timeout (ms)": "Tempo limite (ms)", "Input": "Entrada", "File": "Arquivo", "Purpose": "Objetivo", "Method": "Método", "Headers": "Cabeçalhos", "Query Parameters": "Parâmetros da consulta", "Body": "Conteúdo", "Response is Binary ?": "A resposta é binária ?", "No Error on Failure": "Nenhum erro no Failure", "Timeout (in seconds)": "Tempo limite (em segundos)", "Select a Mistral model. List is fetched live from your account.": "Selecione um modelo de Mistral. Lista é obtida ao vivo da sua conta.", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Controla aleatoriedade: Diminuir resulta em menos complementos aleatórios. À medida que a temperatura se aproxima de zero, o modelo se tornará determinístico e repetitivo.", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Uma alternativa à amostragem com temperatura, chamada amostragem núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade superior (P). Portanto, 0,1 significa que apenas os tokens que incluem a massa de probabilidade superior de 10% são considerados.", "The input text for which to create an embedding.": "O texto de entrada para o qual criar uma incorporação.", "The file to upload (max 512MB).For fine tuning purspose provide .jsonl file.": "O arquivo a ser carregado (máx. 512MB).Para purspose de ajuste precisa fornecer arquivo .jsonl.", "Purpose of the file.": "Objetivo do arquivo.", "Authorization headers are injected automatically from your connection.": "Os cabeçalhos de autorização são inseridos automaticamente a partir da sua conexão.", "Enable for files like PDFs, images, etc..": "Habilitar para arquivos como PDFs, imagens, etc..", "fine-tune": "afino", "batch": "lote", "ocr": "cr", "GET": "OBTER", "POST": "POSTAR", "PATCH": "COMPRAR", "PUT": "COLOCAR", "DELETE": "EXCLUIR", "HEAD": "CABEÇA" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server