Skip to main content
Glama

Basic MCP Application

기본 MCP 응용 프로그램

FastAPI와 Gradio에서 Model Context Protocol(MCP)이 어떻게 작동하는지 보여주는 간단한 앱입니다(저는 Streamlit으로 인한 골치 아픈 일을 즐기는 개발자가 아니기 때문입니다).

개요

이 프로젝트는 Gradio 프런트엔드를 갖춘 기본 MCP 서버를 보여줍니다. (Streamlit은 골치 아픈 문제였고, 인생은 불필요한 고통에 너무 짧습니다.) 사용자는 마케팅 담당자들이 "간단한 인터페이스"라고 부르는, 그리고 개발자들이 "다음 단계로 넘어가기 전에 할 수 있는 최선"이라고 생각하는 인터페이스를 통해 AI 모델과 채팅할 수 있습니다.

기술 스택

  • 백엔드 : FastAPI + MCP Python SDK(피자에 파인애플이 들어간다는 건 상상도 할 수 없는 조합이죠)
  • 프런트엔드 : Gradio (예쁜 버튼은 도파민을 솟구치게 만들기 때문이죠)
  • AI 통합 : Google Gemini API(별자리표가 아닌 Sundar Pichai의 AI AI AI AI AI AI라는 것)

알려진 문제

⚠️ 참고사항

  • 현재 인용 도구가 제대로 작동하지 않습니다. 논문 인용을 분석하거나 고급 검색 기능을 사용할 때 오류가 발생할 수 있습니다. 이 문제를 해결하기 위해 노력하고 있습니다. 언제쯤 해결될까요? ¯\_(ツ)_/¯. AGI가 도입되면 해결될지도 모르겠네요.
  • Semantic Scholar API에는 속도 제한이 있어 검색 기능에서 "논문을 직접 검색하여 제공할 수 없습니다."라는 오류 메시지가 표시될 수 있습니다. 이는 무료 API가 열정적인 사용자들을 만나면 발생하는 현상입니다. 저희는 이러한 사용자들을 매우 사랑합니다. 잠시 기다렸다가 다시 시도해 보세요(또는 속도 제한이 재설정될 때까지 커피 한 잔으로 시간을 보내세요).

설정 속도 향상

이 프로젝트는 초고속 Python 패키지 설치 프로그램인 uv 와 완벽하게 호환됩니다! 다음 세기쯤 pip가 완료될 때까지 기다릴 필요 없이, uv 사용하면 몇 초 만에 종속성을 설치할 수 있습니다. 더욱 원활한 사용 환경(그리고 진행률 표시줄을 바라보며 몇 시간씩 허비했던 시간)을 위해 uv를 강력 추천합니다.

빠른 시작

필요한 것

  • Python 3.11 이상(죄송합니다. 아직도 Python 2를 사용하는 공룡들이 있습니다.)
  • pip 패키지 관리자(또는 더 멋지고 빠른 사촌인 uv )
  • RCB의 인내심(구글링으로 검색)(선택 사항이지만 권장)

설정 단계

  1. 이 프로젝트를 복제하세요:지엑스피1
  2. 가상 환경을 만드세요(전역적 종속성은 감정적 손상으로 이어질 수 있기 때문입니다):
    python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  3. 필요한 패키지를 설치하세요:pip(거북이 방식)을 사용하면:
    pip install -r requirements.txt
    uv(실제로 경주에서 이기는 토끼 방식)를 사용하면:
    # Install uv first if you don't have it curl -LsSf https://astral.sh/uv/install.sh | sh
    또는
    pip install uv
    그런 다음 uv를 사용하여 종속성을 설치합니다.
    uv pip install -r requirements.txt
    uv 사용하면 Python 패키지 설치가 아주 빨라집니다! 일반 pip보다 훨씬 빠르죠 (motherpromise🤞). pip가 사용자의 요청을 처리하는 동안 uv는 이미 작업을 완료하고, 커피를 내리고, 다음 앱 개발을 시작합니다.
  4. API 키를 설정하세요(GitHub에 절대 커밋해서는 안 되지만 누군가는 항상 커밋하는 것들):
    cp .env.example .env # Open .env and add your API keys
  5. 하나의 명령으로 두 서버를 실행합니다(마법과 비슷하지만 세미콜론이 더 많습니다):
    python run.py
    이렇게 하면 백엔드와 프런트엔드가 동시에 시작됩니다. 마치 케이크를 먹고 싶은 대로 먹는 것과 같지만, 칼로리는 더 적습니다.필요하다면 개별적으로 시작할 수도 있습니다(통제광인 사람들을 위해):
    • 백엔드: uvicorn backend.main:app --reload
    • 프런트엔드: python frontend/app.py
  6. 웹 브라우저를 열고 http://localhost:8501 로 이동하세요(작동하지 않으면 껐다가 다시 켜보세요 😑)

프로젝트 파일

개발이 실제로 시작되면 결코 이렇게 깔끔함을 유지할 수 없을 이 아름다운 디렉토리 구조를 살펴보세요.

basic-mcp-app/ ├── .env.example # Template for your API keys(Please don't make your api keys public🙏) ├── .gitignore # Files to ignore in git (like the emotional baggage) ├── README.md # This help file that nobody reads until desperate ├── requirements.txt # Required packages (aka dependency hell) ├── run.py # Script to start both servers ├── backend/ │ └── main.py # Backend server code with MCP (where the real magic happens) └── frontend/ └── app.py # Gradio frontend interface (pretty buttons go here)

특징

  • Semantic Scholar를 사용한 과학 논문 검색(Google Scholar가 너무 대중적일 때)
  • 논문 분석 도구(항상 60%의 확률로 작동)
  • 간단한 채팅 인터페이스(사용자에게는 간단하지만 개발자에게는 악몽)
  • 간편한 설치 과정(에베레스트 산에 오른 적이 있다면 공원 산책과 같을 것입니다)

특허

MIT(저는 친절하고 긴 라이센스를 읽고 싶지 않기 때문입니다)

감사해요

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

FastAPI와 Streamlit과 MCP(Model Context Protocol)의 통합을 보여주는 간단한 애플리케이션으로, 사용자가 깔끔한 인터페이스를 통해 LLM과 상호 작용할 수 있도록 해줍니다.

  1. 개요
    1. 기술 스택
      1. 알려진 문제
        1. 설정 속도 향상
          1. 빠른 시작
            1. 필요한 것
            2. 설정 단계
          2. 프로젝트 파일
            1. 특징
              1. 특허
                1. 감사해요

                  Related MCP Servers

                  • -
                    security
                    A
                    license
                    -
                    quality
                    MCP Server provides a simpler API to interact with the Model Context Protocol by allowing users to define custom tools and services to streamline workflows and processes.
                    Last updated -
                    13
                    2
                    TypeScript
                    MIT License
                  • -
                    security
                    A
                    license
                    -
                    quality
                    A zero-configuration tool that automatically exposes FastAPI endpoints as Model Context Protocol (MCP) tools, allowing LLM systems like Claude to interact with your API without additional coding.
                    Last updated -
                    5,362
                    Python
                    MIT License
                    • Linux
                    • Apple
                  • A
                    security
                    A
                    license
                    A
                    quality
                    An educational implementation of a Model Context Protocol server that demonstrates how to build a functional MCP server for integrating with various LLM clients like Claude Desktop.
                    Last updated -
                    1
                    88
                    Python
                    MIT License
                    • Apple
                    • Linux
                  • -
                    security
                    A
                    license
                    -
                    quality
                    A Model Context Protocol (MCP) server implementation that enables LLMs to interact with the Osmosis protocol, allowing for querying and transaction functionality through natural language.
                    Last updated -
                    9
                    TypeScript
                    MIT License
                    • Apple

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/priteshshah96/MCP'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server