Skip to main content
Glama

🧠 넥서스마인드

생각 그래프를 통한 지능적인 과학적 추론

버전 파이썬특허 도커 패스트API 네트워크X 마지막 업데이트

🔍 개요

NexusMind는 그래프 구조를 활용하여 정교한 과학적 추론을 수행합니다. Claude Desktop과 같은 AI 애플리케이션과 통합하기 위해 모델 컨텍스트 프로토콜(MCP)을 구현합니다.

주요 내용:

  • 그래프 기반 추론을 사용하여 복잡한 과학적 쿼리를 처리합니다.

  • 다차원 평가를 통한 동적 신뢰도 평가

  • 고성능을 위해 최신 Python 및 FastAPI로 구축됨

  • 쉬운 배포를 위해 Docker화됨

  • 확장성 및 사용자 정의를 위한 모듈식 디자인

Related MCP server: Sequential Thinking Multi-Agent System

🌟 주요 특징

8단계 추론 파이프라인

핵심 추론 과정은 정교한 8단계 파이프라인을 따릅니다.

  1. 🌱 초기화

    • 쿼리에서 루트 노드를 생성합니다.

    • 초기 그래프 구조를 설정합니다

    • 신뢰 기준선 설정

  2. 🧩 분해

    • 쿼리를 차원으로 나눕니다.

    • 주요 구성 요소를 식별합니다

    • 차원 노드를 생성합니다

  3. 🔬 가설/계획

    • 여러 가설을 생성합니다

    • 추론 전략을 생성합니다

    • 위조 기준을 수립합니다

  4. 📊 증거 통합

    • 뒷받침하는 증거를 수집합니다

    • 증거를 가설에 연결합니다.

    • 신뢰도 점수 업데이트

  5. ✂️ 가지치기/병합

    • 낮은 가치의 요소를 제거합니다

    • 유사한 노드를 통합합니다

    • 그래프 구조를 최적화합니다

  6. 🔍 서브그래프 추출

    • 관련 부분을 식별합니다

    • 높은 가치의 경로에 집중합니다

    • 타겟 하위 그래프를 생성합니다

  7. 📝 구성

    • 주요 결과를 종합합니다

    • 일관된 통찰력을 생성합니다

    • 포괄적인 답변을 생성합니다

  8. 🤔 반성

    • 추론 품질을 평가합니다

    • 개선 영역을 식별합니다

    • 최종 신뢰도 평가

기술적 역량

  • 🧠 그래프 지식 표현 : networkx 사용하여 복잡한 관계를 모델링합니다.

  • 🔄 동적 신뢰 벡터 :

    • 경험적 지원

    • 이론적 근거

    • 방법론적 엄격성

    • 합의 정렬

  • 🔌 MCP 서버 : Claude Desktop과의 원활한 통합

  • ⚡ 고성능 API : 최신 FastAPI 구현

  • 🐳 간편한 배포 : Docker 및 Docker Compose 지원

  • 🧩 확장 가능한 아키텍처 : 사용자 정의를 위한 모듈식 구성 요소

  • ⚙️ 유연한 구성 : Pydantic 및 YAML 구성

🛠️ 기술 스택

📂 프로젝트 구조

지엑스피1

🚀 시작하기

필수 조건

  • Python 3.13+ (Docker 이미지는 Python 3.13.3-slim-bookworm을 사용합니다)

  • : 의존성 관리를 위해

  • DockerDocker Compose : 컨테이너화된 배포를 위해

설치 및 설정(로컬 개발)

  1. 저장소를 복제합니다 .

    git clone https://github.com/SaptaDey/NexusMind.git cd NexusMind
  2. Poetry를 사용하여 종속성 설치 :

    poetry install

    이렇게 하면 가상 환경이 생성되고 pyproject.toml 에 지정된 모든 필수 패키지가 설치됩니다.

  3. 가상 환경 활성화 :

    poetry shell
  4. 응용 프로그램 구성 :

    • 필요에 따라 config/settings.yaml 에서 설정을 조정하세요.

    • 민감한 정보에 대한 환경 변수 또는 .env 파일을 구성합니다.

  5. 개발 서버를 실행합니다 .

    python src/asr_got_reimagined/main.py

    또는 보다 세밀한 제어를 위해:

    uvicorn asr_got_reimagined.main:app --reload --host 0.0.0.0 --port 8000

    API는 http://localhost:8000 에서 사용할 수 있습니다.

도커 배포

  1. Docker 컨테이너를 빌드하고 실행합니다 .

    docker-compose up --build

    분리 모드의 경우:

    docker-compose up --build -d

    Docker 이미지는 향상된 성능과 보안을 위해 Python 3.13.3-slim-bookworm을 기본 이미지로 사용합니다.

  2. API에 접근 : API는 http://localhost:8000 에서 접근할 수 있습니다(또는 docker-compose.yml 에서 구성된 대로).

🔌 API 엔드포인트

핵심 엔드포인트

  • MCP 엔드포인트 : POST /mcp

    • Claude Desktop과 같은 MCP 클라이언트와의 통신을 위해

    • AI 상호작용을 위한 모델 컨텍스트 프로토콜을 구현합니다.

  • 건강 검진 : GET /health

    • 모니터링 및 서비스 검색을 위한 기본 상태 점검

추가 엔드포인트(계획됨)

  • 그래프 쿼리 : POST /api/graph/query

    • ASR-GoT 쿼리에 대한 직접 인터페이스

  • 그래프 상태 : GET /api/graph/{session_id}

    • 추론 그래프의 현재 상태 검색

  • 분석 : GET /api/analytics/{session_id}

    • 추론 과정에 대한 측정 항목을 얻으세요

🧪 테스트 및 품질

개발 도구

  • 유형 안전 :

    • mypy.inipyrightconfig.json 으로 구성됨

    • python scripts/add_type_hints.py 사용하여 로거 유형 문제 수정

  • 코드 품질 :

    • 유형 주석이 포함된 완전히 유형화된 코드베이스

    • 사전 커밋 후크 사용 가능: poetry run pre-commit install

    • Ruff를 사용한 자동 서식 지정

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/SaptaDey/NexusMind'

If you have feedback or need assistance with the MCP directory API, please join our Discord server