Servidor MCP de OpenAI
Consulta modelos de OpenAI directamente desde Claude mediante el protocolo MCP. Esta bifurcación añade compatibilidad con los modelos o3-mini y gpt-4o-mini con un manejo de mensajes mejorado.
Instalación automática de Cline
Set up the MCP server from https://github.com/thadius83/mcp-server-openai.
Use "github.com/thadius83/mcp-server-openai" as the server name in cline_mcp_settings.json.
Analyse the readme and instructions below. Do not create new files in the repo, utilise the findings from pyproject.toml, src/mcp_server_openai/server.py, src/mcp_server_openai/llm.py
Once installed, demonstrate the server's capabilities by using one of its tools.
Installation Steps:
# Clone the repository
git clone https://github.com/thadius83/mcp-server-openai
cd mcp-server-openai
# Install the package
pip install .`
MCP Settings Configuration: The cline_mcp_settings.json should be configured with:
Correct server name format: "github.com/thadius83/mcp-server-openai"
Python module path structure for the server
PYTHONPATH environment variable pointing to the project directory
OpenAI API key passed as a command line argument
Example configuration:
{
"mcpServers": {
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": [
"-m",
"src.mcp_server_openai.server",
"--openai-api-key",
"your-openai-api-key"
],
"env": {
"PYTHONPATH": "/path/to/mcp-server-openai"
},
"disabled": false,
"autoApprove": []
}
}
}
Requirements:
Python >= 3.10
OpenAI API key
Dependencies installed via pip (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio)
Available Tools:
Tool Name: ask-openai
Description: Ask OpenAI assistant models a direct question
Models Available:
o3-mini (default)
gpt-4o-mini
Input Schema:
{
"query": "Your question here",
"model": "o3-mini" // optional, defaults to o3-mini
}Related MCP server: MCP OpenAI Server
Características
Integración directa con la API de OpenAI
Soporte para múltiples modelos:
o3-mini (predeterminado): optimizado para respuestas concisas
gpt-4o-mini: Modelo mejorado para respuestas más detalladas
Formato de mensaje configurable
Manejo y registro de errores
Interfaz sencilla a través del protocolo MCP
Instalación
Instalación mediante herrería
Para instalar OpenAI MCP Server para Claude Desktop automáticamente a través de Smithery :
npx -y @smithery/cli install @thadius83/mcp-server-openai --client claudeInstalación manual
Clonar el repositorio :
git clone https://github.com/thadius83/mcp-server-openai.git
cd mcp-server-openai
# Install dependencies
pip install -e .Configurar Claude Desktop :
Agregue este servidor a su configuración de MCP existente. Nota: Conserve todos los servidores MCP existentes en la configuración; simplemente agregue este junto con ellos.
Ubicación:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonVentanas:
%APPDATA%/Claude/claude_desktop_config.jsonLinux: Verifique su directorio de inicio (
~/) para conocer la ubicación de la configuración predeterminada de MCP
{
"mcpServers": {
// ... keep your existing MCP servers here ...
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"],
"env": {
"PYTHONPATH": "/path/to/your/mcp-server-openai"
}
}
}
}Obtenga una clave API de OpenAI :
Visita el sitio web de OpenAI
Crea una cuenta o inicia sesión
Navegar a la configuración de la API
Generar una nueva clave API
Agregue la clave a su archivo de configuración como se muestra arriba
Reiniciar Claude :
Después de actualizar la configuración, reinicie Claude para que los cambios surtan efecto.
Uso
El servidor proporciona una única herramienta ask-openai , que permite consultar modelos OpenAI. Puede usarla directamente en Claude con el comando use_mcp_tool:
<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
"query": "What are the key features of Python's asyncio library?",
"model": "o3-mini" // Optional, defaults to o3-mini
}
</arguments>
</use_mcp_tool>Comparación de modelos
o3-mini (predeterminado)
Ideal para: respuestas rápidas y concisas
Estilo: Directo y eficiente
Ejemplo de respuesta:
Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
gpt-4o-mini
Ideal para: explicaciones más completas
Estilo: Detallado y minucioso.
Ejemplo de respuesta:
Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.
Formato de respuesta
La herramienta devuelve respuestas en un formato estandarizado:
{
"content": [
{
"type": "text",
"text": "Response from the model..."
}
]
}Solución de problemas
Servidor no encontrado :
Verifique que PYTHONPATH en su configuración apunte al directorio correcto
Asegúrese de que Python y pip estén instalados correctamente
Intente ejecutar
python -m src.mcp_server_openai.server --openai-api-key your-key-heredirectamente para verificar si hay errores
Errores de autenticación :
Comprueba que tu clave API de OpenAI sea válida
Asegúrese de que la clave se pase correctamente en la matriz de argumentos
Verifique que no haya espacios ni caracteres adicionales en la clave
Errores del modelo :
Confirme que está utilizando modelos compatibles (o3-mini o gpt-4o-mini)
Comprueba que tu consulta no esté vacía
Asegúrese de no exceder los límites de tokens
Desarrollo
# Install development dependencies
pip install -e ".[dev]"
# Run tests
pytest -v test_openai.py -sCambios respecto al original
Se agregó soporte para los modelos o3-mini y gpt-4o-mini
Formato de mensajes mejorado
Se eliminó el parámetro de temperatura para una mejor compatibilidad.
Documentación actualizada con ejemplos de uso detallados
Se agregaron ejemplos de comparación y respuesta de modelos
Instrucciones de instalación mejoradas
Se agregó una guía de solución de problemas
Licencia
Licencia MIT
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.