Servidor MCP de OpenAI
Consulta modelos de OpenAI directamente desde Claude mediante el protocolo MCP. Esta bifurcación añade compatibilidad con los modelos o3-mini y gpt-4o-mini con un manejo de mensajes mejorado.
Instalación automática de Cline
Características
Integración directa con la API de OpenAI
Soporte para múltiples modelos:
o3-mini (predeterminado): optimizado para respuestas concisas
gpt-4o-mini: Modelo mejorado para respuestas más detalladas
Formato de mensaje configurable
Manejo y registro de errores
Interfaz sencilla a través del protocolo MCP
Instalación
Instalación mediante herrería
Para instalar OpenAI MCP Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Clonar el repositorio :
Configurar Claude Desktop :
Agregue este servidor a su configuración de MCP existente. Nota: Conserve todos los servidores MCP existentes en la configuración; simplemente agregue este junto con ellos.
Ubicación:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonVentanas:
%APPDATA%/Claude/claude_desktop_config.jsonLinux: Verifique su directorio de inicio (
~/) para conocer la ubicación de la configuración predeterminada de MCP
Obtenga una clave API de OpenAI :
Visita el sitio web de OpenAI
Crea una cuenta o inicia sesión
Navegar a la configuración de la API
Generar una nueva clave API
Agregue la clave a su archivo de configuración como se muestra arriba
Reiniciar Claude :
Después de actualizar la configuración, reinicie Claude para que los cambios surtan efecto.
Uso
El servidor proporciona una única herramienta ask-openai , que permite consultar modelos OpenAI. Puede usarla directamente en Claude con el comando use_mcp_tool:
Comparación de modelos
o3-mini (predeterminado)
Ideal para: respuestas rápidas y concisas
Estilo: Directo y eficiente
Ejemplo de respuesta:
Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
gpt-4o-mini
Ideal para: explicaciones más completas
Estilo: Detallado y minucioso.
Ejemplo de respuesta:
Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.
Formato de respuesta
La herramienta devuelve respuestas en un formato estandarizado:
Solución de problemas
Servidor no encontrado :
Verifique que PYTHONPATH en su configuración apunte al directorio correcto
Asegúrese de que Python y pip estén instalados correctamente
Intente ejecutar
python -m src.mcp_server_openai.server --openai-api-key your-key-heredirectamente para verificar si hay errores
Errores de autenticación :
Comprueba que tu clave API de OpenAI sea válida
Asegúrese de que la clave se pase correctamente en la matriz de argumentos
Verifique que no haya espacios ni caracteres adicionales en la clave
Errores del modelo :
Confirme que está utilizando modelos compatibles (o3-mini o gpt-4o-mini)
Comprueba que tu consulta no esté vacía
Asegúrese de no exceder los límites de tokens
Desarrollo
Cambios respecto al original
Se agregó soporte para los modelos o3-mini y gpt-4o-mini
Formato de mensajes mejorado
Se eliminó el parámetro de temperatura para una mejor compatibilidad.
Documentación actualizada con ejemplos de uso detallados
Se agregaron ejemplos de comparación y respuesta de modelos
Instrucciones de instalación mejoradas
Se agregó una guía de solución de problemas
Licencia
Licencia MIT
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Permite la integración con modelos OpenAI a través del protocolo MCP, admitiendo respuestas concisas y detalladas para su uso con Claude Desktop.
- Instalación automática de Cline
 - Características
 - Instalación
 - Uso
 - Solución de problemas
 - Desarrollo
 - Cambios respecto al original
 - Licencia
 
Related Resources
Related MCP Servers
- -security-license-qualityThis tool creates a Model Context Protocol (MCP) server that acts as a proxy for any API that has an OpenAPI v3.1 specification. This allows you to use Claude Desktop to easily interact with both local and remote server APIs.Last updated -198837MIT License
 - -security-license-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -9068MIT License
 - Asecurity-licenseAqualityQuery OpenAI models directly from Claude using MCP protocol.Last updated -173MIT License
 - Asecurity-licenseAqualityA lightweight bridge that wraps OpenAI's built-in tools (like web search and code interpreter) as Model Context Protocol servers, enabling their use with Claude and other MCP-compatible models.Last updated -411MIT License