-
securityA
license-
qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
Last updated -
1
24
28
JavaScript
MIT License
이 프로젝트는 MCP(모델 제어 프로토콜)를 OpenAI의 API와 통합하는 방법을 보여줍니다. 이를 통해 OpenAI가 Docker에서 실행되는 MCP 서버에서 노출된 도구에 액세스하여 사용할 수 있습니다.
server.py
: 도구를 사용한 MCP 서버 구현client.py
: 서버에 연결하고 에이전트를 호출하는 클라이언트Dockerfile
: Docker 이미지를 빌드하기 위한 지침requirements.txt
: 프로젝트에 대한 Python 종속성지엑스피1
이렇게 하면 Docker 컨테이너 내부에서 MCP 서버가 시작되고 포트 8050에 노출됩니다.
서버가 실행되면 별도의 터미널에서 클라이언트를 실행할 수 있습니다.
클라이언트는 서버에 연결하여 사용 가능한 도구를 나열하고, 에이전트에게 전화하여 쿼리에 답변합니다.
연결 문제가 발생하는 경우:
docker ps
로 Docker 컨테이너가 실행 중인지 확인하세요.docker ps
사용하거나 docker run
명령의 출력을 확인하여 포트가 올바르게 매핑되었는지 확인합니다.docker logs <container_id>
로 서버 로그를 보고 오류가 있는지 확인하세요.127.0.0.1
대신 0.0.0.0
에 바인딩되도록 구성되었습니다. 문제가 지속되면 방화벽 설정을 확인해야 할 수 있습니다.http://localhost:8050/sse
에서 서버에 연결합니다.This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
모델 제어 프로토콜을 OpenAI의 API와 통합하여 OpenAI가 도커화된 MCP 서버에서 노출된 도구에 액세스하고 활용할 수 있도록 하는 프로젝트입니다.
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/TomasRodriguez2002/MCP'
If you have feedback or need assistance with the MCP directory API, please join our Discord server