Skip to main content
Glama

mcp-google-sheets

fr.json5.72 kB
{ "AI-powered visual recognition": "Reconnaissance visuelle par IA", "\nFollow these instructions to get your Clarifai (Personal Access Token) PAT Key:\n1. Go to the [security tab](https://clarifai.com/settings/security) in your Clarifai account and generate a new PAT token.\n2. Copy the PAT token and paste it in the PAT Key field.\n": "\nFollow these instructions to get your Clarifai (Personal Access Token) PAT Key:\n1. Go to the [security tab](https://clarifai.com/settings/security) in your Clarifai account and generate a new PAT token.\n2. Copy the PAT token and paste it in the PAT Key field.\n", "Ask LLM": "Demander à LLM", "Ask IGM": "Demander IGM", "Classify Images or Videos": "Classer Images ou Vidéos", "Classify Text": "Classer le texte", "Image to Text": "Image au texte", "Text to Text": "Texte au texte", "Audio to Text": "Audio au texte", "Add Inputs": "Ajouter des entrées", "Run Workflow": "Exécuter le flux de travail", "Custom API Call": "Appel API personnalisé", "Send a prompt to any large language models (LLM) supported by clarifai.": "Envoyez une invite à tous les grands modèles de langue (LLM) supportés par clarifai.", "Generate an image using the Image generating models supported by clarifai.": "Générer une image en utilisant les modèles de génération d'image pris en charge par clarifai.", "Call an visual classifier AI model to recognize concepts": "Appeler un modèle IA de classeur visuel pour reconnaître les concepts", "Call a text classifier AI model to recognize concepts": "Appeler un modèle IA de classificateur de texte pour reconnaître les concepts", "Call an image to text AI model": "Appeler une image au modèle de l'IA", "Call a text to text AI model": "Appeler un texte vers le modèle de l'IA", "Call a audio to text AI model": "Appeler un fichier audio vers le modèle de l'IA", "Add inputs to your clarifai app": "Ajouter des entrées à votre application clarifai", "Call a Clarifai workflow": "Appeler un workflow Clarifai", "Make a custom API call to a specific endpoint": "Passez un appel API personnalisé à un point de terminaison spécifique", "Model Id": "Identifiant du modèle", "Prompt": "Prompt", "Model URL": "URL du modèle", "Input URL or bytes": "Input URL or bytes", "Input Text": "Input Text", "User ID": "Identifiant de l'utilisateur", "App ID": "ID de l'application", "Workflow URL": "URL du workflow", "Method": "Méthode", "Headers": "En-têtes", "Query Parameters": "Paramètres de requête", "Body": "Corps", "Response is Binary ?": "La réponse est Binaire ?", "No Error on Failure": "Aucune erreur en cas d'échec", "Timeout (in seconds)": "Délai d'attente (en secondes)", "The model which will generate the response. If the model is not listed, get the model id from the clarifai website. Example : 'GPT-4' you can get the model id from here [https://clarifai.com/openai/chat-completion/models/GPT-4](https://clarifai.com/openai/chat-completion/models/GPT-4)": "Le modèle qui va générer la réponse. Si le modèle n'est pas listé, obtenir l'id du modèle à partir du site Web de clarifai. Exemple : 'GPT-4' vous pouvez obtenir l'id du modèle ici [https://clarifai.com/openai/chat-completion/models/GPT-4](https://clarifai.com/openai/chat-completion/models/GPT-4)", "The prompt to send to the model.": "L'invite à envoyer au modèle.", "URL of the Clarifai model. For example https://clarifai.com/clarifai/main/models/general-image-recognition OR a specific version such as https://clarifai.com/clarifai/main/models/general-image-recognition/versions/aa7f35c01e0642fda5cf400f543e7c40. Find more models at https://clarifai.com/explore/models": "URL du modèle Clarifai. Par exemple https://clarifai.com/clarifai/main/models/general-image-recognition OU une version spécifique telle que https://clarifai.com/clarifai/main/models/general-image-recognition/versions/aa7f35c01e0642fda5cf400f543e7c40. Trouver d'autres modèles sur https://clarifai.com/explore/models", "URL or base64 bytes of the image or video to classify": "URL ou octets base64 de l'image ou de la vidéo à classer", "Text to classify": "Texte à classer", "URL or base64 bytes of the image to classify": "URL ou octets base64 de l'image à classer", "URL or base64 bytes of the audio to classify": "URL ou octets base64 de l'audio à classer", "User ID to associate with the input": "ID de l'utilisateur à associer avec l'entrée", "App ID (project) to associate with the input": "ID de l'application (projet) à associer à l'entrée", "URL of the Clarifai workflow. For example https://clarifai.com/clarifai/main/workflows/Demographics. Find more workflows at https://clarifai.com/explore/workflows": "URL du flux de travail Clarifai. Par exemple https://clarifai.com/clarifai/main/workflows/Demographics. Trouvez plus de workflows sur https://clarifai.com/explore/workflows", "URL or base64 bytes of the incoming image/video/text/audio to run through the workflow. Note: must be appropriate first step of the workflow to handle that data type.": "URL ou base64 octets de l'image entrante/vidéo/texte/audio à exécuter à travers le workflow. Note: doit être la première étape appropriée du workflow pour gérer ce type de données.", "Authorization headers are injected automatically from your connection.": "Les en-têtes d'autorisation sont injectés automatiquement à partir de votre connexion.", "Enable for files like PDFs, images, etc..": "Activer pour les fichiers comme les PDFs, les images, etc.", "GET": "OBTENIR", "POST": "POSTER", "PATCH": "PATCH", "PUT": "EFFACER", "DELETE": "SUPPRIMER", "HEAD": "TÊTE" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server