Skip to main content
Glama

mcp-google-sheets

de.json5.63 kB
{ "AI-powered visual recognition": "AI-gestützte visuelle Erkennung", "\nFollow these instructions to get your Clarifai (Personal Access Token) PAT Key:\n1. Go to the [security tab](https://clarifai.com/settings/security) in your Clarifai account and generate a new PAT token.\n2. Copy the PAT token and paste it in the PAT Key field.\n": "\nFolgen Sie diesen Anweisungen, um Ihren Clarifai (Persönliches Zugangs-Token) PAT-Schlüssel zu erhalten:\n1. Gehe zum [Sicherheits-Tab](https://clarifai.com/settings/security) in deinem Clarifai Account und erstelle einen neuen PAT Token.\n2. Kopieren Sie das PAT-Token und fügen Sie es in das PAT-Schlüsselfeld ein.\n", "Ask LLM": "LLM fragen", "Ask IGM": "IGM fragen", "Classify Images or Videos": "Bilder oder Videos klassifizieren", "Classify Text": "Text klassifizieren", "Image to Text": "Bild zu Text", "Text to Text": "Text zu Text", "Audio to Text": "Audio zu Text", "Add Inputs": "Eingaben hinzufügen", "Run Workflow": "Workflow ausführen", "Custom API Call": "Eigener API-Aufruf", "Send a prompt to any large language models (LLM) supported by clarifai.": "Senden Sie einen Prompt an alle großen Sprachmodelle (LLM), die von clearfai.", "Generate an image using the Image generating models supported by clarifai.": "Generieren Sie ein Bild mit den Bild-Generierungsmodellen, die von clarifai.", "Call an visual classifier AI model to recognize concepts": "KI-Modell für visuelle Klassifizierung aufrufen, um Konzepte zu erkennen", "Call a text classifier AI model to recognize concepts": "KI-Modell für Text-Klassifizierung aufrufen, um Konzepte zu erkennen", "Call an image to text AI model": "Bild zum Text-KI-Modell aufrufen", "Call a text to text AI model": "Text zum Text des KI-Modells aufrufen", "Call a audio to text AI model": "Audio zum Text-KI-Modell aufrufen", "Add inputs to your clarifai app": "Eingaben zu Ihrer Klarstellen-App hinzufügen", "Call a Clarifai workflow": "Clarifai Workflow aufrufen", "Make a custom API call to a specific endpoint": "Einen benutzerdefinierten API-Aufruf an einen bestimmten Endpunkt machen", "Model Id": "Modell-Id", "Prompt": "Prompt", "Model URL": "Modell-URL", "Input URL or bytes": "Input URL or bytes", "Input Text": "Input Text", "User ID": "Benutzer-ID", "App ID": "App-ID", "Workflow URL": "Workflow-URL", "Method": "Methode", "Headers": "Kopfzeilen", "Query Parameters": "Abfrageparameter", "Body": "Körper", "Response is Binary ?": "Antwort ist binär?", "No Error on Failure": "Kein Fehler bei Fehler", "Timeout (in seconds)": "Timeout (in Sekunden)", "The model which will generate the response. If the model is not listed, get the model id from the clarifai website. Example : 'GPT-4' you can get the model id from here [https://clarifai.com/openai/chat-completion/models/GPT-4](https://clarifai.com/openai/chat-completion/models/GPT-4)": "Das Modell, das die Antwort generiert. Wenn das Modell nicht aufgelistet ist, erhalten Sie die Modell-ID von der clarifai Website. Beispiel : 'GPT-4' du kannst die Model ID von hier [https://clarifai.com/openai/chat-completion/models/GPT-4](https://clarifai.com/openai/chat-completion/models/GPT-4) erhalten", "The prompt to send to the model.": "Die Eingabeaufforderung, die an das Modell gesendet wird.", "URL of the Clarifai model. For example https://clarifai.com/clarifai/main/models/general-image-recognition OR a specific version such as https://clarifai.com/clarifai/main/models/general-image-recognition/versions/aa7f35c01e0642fda5cf400f543e7c40. Find more models at https://clarifai.com/explore/models": "URL des Clarifai-Modells. Zum Beispiel https://clarifai.com/clarifai/main/models/general-image-recognition ODER eine bestimmte Version wie https://clarifai.com/main/models/general-image-recognition/versions/a7f35c01e0642fda5cf400f543e7c40. Weitere Modelle finden Sie unter https://clarifai.com/explore/models", "URL or base64 bytes of the image or video to classify": "URL oder Base64 Bytes des Bildes oder Videos zur Klassifizierung", "Text to classify": "Zu klassifizierender Text", "URL or base64 bytes of the image to classify": "URL oder Base64 Bytes des zu klassifizierenden Bildes", "URL or base64 bytes of the audio to classify": "URL oder Base64 Bytes des zu klassifizierenden Audios", "User ID to associate with the input": "Benutzer-ID zur Verknüpfung mit der Eingabe", "App ID (project) to associate with the input": "App-ID (Projekt), die mit der Eingabe verknüpft werden soll", "URL of the Clarifai workflow. For example https://clarifai.com/clarifai/main/workflows/Demographics. Find more workflows at https://clarifai.com/explore/workflows": "URL des Clarifai-Workflows. Zum Beispiel https://clarifai.com/clarifai/main/workflows/Demographics. Weitere Workflows finden Sie unter https://clarifai.com/explore/workflows", "URL or base64 bytes of the incoming image/video/text/audio to run through the workflow. Note: must be appropriate first step of the workflow to handle that data type.": "URL oder Base64 Bytes des eingehenden Bilds/Video/Text/Audio, um den Workflow zu durchlaufen. Hinweis: must be appropriate first step of the workflow to handle that data typ.", "Authorization headers are injected automatically from your connection.": "Autorisierungs-Header werden automatisch von Ihrer Verbindung injiziert.", "Enable for files like PDFs, images, etc..": "Aktivieren für Dateien wie PDFs, Bilder, etc..", "GET": "ERHALTEN", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "LÖSCHEN", "HEAD": "HEAD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server