Python
MIT License
LlamaIndexTS 라이브러리를 사용하여 LLM에 대한 액세스를 제공하는 MCP 서버입니다.
이 MCP 서버는 다음과 같은 도구를 제공합니다.
generate_code
: 설명을 기반으로 코드 생성generate_code_to_file
: 코드를 생성하여 특정 줄 번호의 파일에 직접 씁니다.generate_documentation
: 코드에 대한 문서를 생성합니다.ask_question
: LLM에 질문하기Smithery를 통해 Claude Desktop용 LLM 서버를 자동으로 설치하려면:
지엑스피1
저장소에는 MCP 서버를 프로그래밍 방식으로 사용하는 방법을 보여주는 예제 스크립트가 포함되어 있습니다.
이 스크립트는 MCP 서버를 시작하고 curl 명령을 사용하여 해당 서버에 요청을 보냅니다.
generate_code_to_file
도구는 상대 경로와 절대 경로 모두를 지원합니다. 상대 경로를 제공하면 MCP 서버의 현재 작업 디렉터리를 기준으로 경로가 결정됩니다.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
LLM이 다른 LLM에 액세스할 수 있도록 하는 MCP 서버
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sammcj/mcp-llm'
If you have feedback or need assistance with the MCP directory API, please join our Discord server