OpenAI MCP Server

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Allows querying OpenAI models (o3-mini and gpt-4o-mini) directly from Claude using the MCP protocol, enabling users to ask questions and receive responses from OpenAI's AI models

Servidor MCP de OpenAI

Consulta modelos de OpenAI directamente desde Claude mediante el protocolo MCP. Esta bifurcación añade compatibilidad con los modelos o3-mini y gpt-4o-mini con un manejo de mensajes mejorado.

Instalación automática de Cline

Set up the MCP server from https://github.com/thadius83/mcp-server-openai. Use "github.com/thadius83/mcp-server-openai" as the server name in cline_mcp_settings.json. Analyse the readme and instructions below. Do not create new files in the repo, utilise the findings from pyproject.toml, src/mcp_server_openai/server.py, src/mcp_server_openai/llm.py Once installed, demonstrate the server's capabilities by using one of its tools. Installation Steps: # Clone the repository git clone https://github.com/thadius83/mcp-server-openai cd mcp-server-openai # Install the package pip install .` MCP Settings Configuration: The cline_mcp_settings.json should be configured with: Correct server name format: "github.com/thadius83/mcp-server-openai" Python module path structure for the server PYTHONPATH environment variable pointing to the project directory OpenAI API key passed as a command line argument Example configuration: { "mcpServers": { "github.com/thadius83/mcp-server-openai": { "command": "python", "args": [ "-m", "src.mcp_server_openai.server", "--openai-api-key", "your-openai-api-key" ], "env": { "PYTHONPATH": "/path/to/mcp-server-openai" }, "disabled": false, "autoApprove": [] } } } Requirements: Python >= 3.10 OpenAI API key Dependencies installed via pip (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio) Available Tools: Tool Name: ask-openai Description: Ask OpenAI assistant models a direct question Models Available: o3-mini (default) gpt-4o-mini Input Schema: { "query": "Your question here", "model": "o3-mini" // optional, defaults to o3-mini }

Características

  • Integración directa con la API de OpenAI
  • Soporte para múltiples modelos:
    • o3-mini (predeterminado): optimizado para respuestas concisas
    • gpt-4o-mini: Modelo mejorado para respuestas más detalladas
  • Formato de mensaje configurable
  • Manejo y registro de errores
  • Interfaz sencilla a través del protocolo MCP

Instalación

Instalación mediante herrería

Para instalar OpenAI MCP Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @thadius83/mcp-server-openai --client claude

Instalación manual

  1. Clonar el repositorio :
git clone https://github.com/thadius83/mcp-server-openai.git cd mcp-server-openai # Install dependencies pip install -e .
  1. Configurar Claude Desktop :

Agregue este servidor a su configuración de MCP existente. Nota: Conserve todos los servidores MCP existentes en la configuración; simplemente agregue este junto con ellos.

Ubicación:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Ventanas: %APPDATA%/Claude/claude_desktop_config.json
  • Linux: Verifique su directorio de inicio ( ~/ ) para conocer la ubicación de la configuración predeterminada de MCP
{ "mcpServers": { // ... keep your existing MCP servers here ... "github.com/thadius83/mcp-server-openai": { "command": "python", "args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"], "env": { "PYTHONPATH": "/path/to/your/mcp-server-openai" } } } }
  1. Obtenga una clave API de OpenAI :
    • Visita el sitio web de OpenAI
    • Crea una cuenta o inicia sesión
    • Navegar a la configuración de la API
    • Generar una nueva clave API
    • Agregue la clave a su archivo de configuración como se muestra arriba
  2. Reiniciar Claude :
    • Después de actualizar la configuración, reinicie Claude para que los cambios surtan efecto.

Uso

El servidor proporciona una única herramienta ask-openai , que permite consultar modelos OpenAI. Puede usarla directamente en Claude con el comando use_mcp_tool:

<use_mcp_tool> <server_name>github.com/thadius83/mcp-server-openai</server_name> <tool_name>ask-openai</tool_name> <arguments> { "query": "What are the key features of Python's asyncio library?", "model": "o3-mini" // Optional, defaults to o3-mini } </arguments> </use_mcp_tool>

Comparación de modelos

  1. o3-mini (predeterminado)
    • Ideal para: respuestas rápidas y concisas
    • Estilo: Directo y eficiente
    • Ejemplo de respuesta:
      Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
  2. gpt-4o-mini
    • Ideal para: explicaciones más completas
    • Estilo: Detallado y minucioso.
    • Ejemplo de respuesta:
      Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.

Formato de respuesta

La herramienta devuelve respuestas en un formato estandarizado:

{ "content": [ { "type": "text", "text": "Response from the model..." } ] }

Solución de problemas

  1. Servidor no encontrado :
    • Verifique que PYTHONPATH en su configuración apunte al directorio correcto
    • Asegúrese de que Python y pip estén instalados correctamente
    • Intente ejecutar python -m src.mcp_server_openai.server --openai-api-key your-key-here directamente para verificar si hay errores
  2. Errores de autenticación :
    • Comprueba que tu clave API de OpenAI sea válida
    • Asegúrese de que la clave se pase correctamente en la matriz de argumentos
    • Verifique que no haya espacios ni caracteres adicionales en la clave
  3. Errores del modelo :
    • Confirme que está utilizando modelos compatibles (o3-mini o gpt-4o-mini)
    • Comprueba que tu consulta no esté vacía
    • Asegúrese de no exceder los límites de tokens

Desarrollo

# Install development dependencies pip install -e ".[dev]" # Run tests pytest -v test_openai.py -s

Cambios respecto al original

  • Se agregó soporte para los modelos o3-mini y gpt-4o-mini
  • Formato de mensajes mejorado
  • Se eliminó el parámetro de temperatura para una mejor compatibilidad.
  • Documentación actualizada con ejemplos de uso detallados
  • Se agregaron ejemplos de comparación y respuesta de modelos
  • Instrucciones de instalación mejoradas
  • Se agregó una guía de solución de problemas

Licencia

Licencia MIT

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Permite la integración con modelos OpenAI a través del protocolo MCP, admitiendo respuestas concisas y detalladas para su uso con Claude Desktop.

  1. Cline Auto Install
    1. Features
      1. Installation
        1. Installing via Smithery
        2. Manual Installation
      2. Usage
        1. Model Comparison
        2. Response Format
      3. Troubleshooting
        1. Development
          1. Changes from Original
            1. License
              ID: fzgyk9mw5e