Scholar Feed MCP Server
Scholar Feed MCP 서버
Claude Code, Cursor 또는 모든 MCP 클라이언트에서 LLM 기반의 참신성 분석을 통해 56만 건 이상의 CS/AI/ML 연구 논문을 검색하세요.
Scholar Feed는 매일 arXiv 논문을 색인화하고 다중 신호 점수 시스템(최신성, 인용 속도, 기관 평판, 코드 가용성)을 사용하여 순위를 매깁니다. 각 논문에는 LLM이 생성한 요약과 참신성 점수가 포함되어 있습니다.
빠른 시작
npx scholar-feed-mcp init이 대화형 마법사는 다음을 수행합니다:
API 키 요청 (scholarfeed.org/settings에서 발급)
MCP 클라이언트 감지 (Claude Code, Cursor 또는 Claude Desktop)
구성 작성 및 연결 확인
끝입니다. 다음과 같이 질문해 보세요: "test-time compute scaling에 관한 최근 논문 검색해 줘"
활용 방법
기술 스카우팅 — "이번 달에 발표된 검색 증강 생성(RAG)에 관한 참신한 연구는 무엇인가요?"
문헌 검토 — "2401.04088과 유사한 논문을 찾아서 BibTeX으로 내보내 줘"
트렌드 모니터링 — "이번 주 cs.CV 분야의 트렌드는 무엇인가요? 상위 3개를 요약해 줘."
심층 분석 — "'거대 언어 모델의 추론'에 관한 심층 연구 세션을 실행해 줘"
벤치마크 추적 — "MMLU 리더보드를 보여주고 GPT-4와 LLaMA-3를 비교해 줘"
저자 발견 — "효율적인 LLM 추론 분야에서 활동하는 상위 연구자는 누구인가요?"
수동 설치
Claude Code
claude mcp add scholar-feed -e SF_API_KEY=sf_your_key_here -- npx -y scholar-feed-mcpCursor (.cursor/mcp.json)
{
"mcpServers": {
"scholar-feed": {
"command": "npx",
"args": ["-y", "scholar-feed-mcp"],
"env": { "SF_API_KEY": "sf_your_key_here" }
}
}
}Claude Desktop (claude_desktop_config.json)
{
"mcpServers": {
"scholar-feed": {
"command": "npx",
"args": ["-y", "scholar-feed-mcp"],
"env": { "SF_API_KEY": "sf_your_key_here" }
}
}
}프로젝트 범위 (.mcp.json)
{
"mcpServers": {
"scholar-feed": {
"command": "npx",
"args": ["-y", "scholar-feed-mcp"],
"env": { "SF_API_KEY": "${SF_API_KEY}" }
}
}
}Windows 참고: "command": "cmd"와 "args": ["/c", "npx", "-y", "scholar-feed-mcp"]를 사용하세요.
사용 가능한 도구 (23개)
핵심 검색 및 발견
도구 | 설명 | 주요 매개변수 |
| 필터를 포함한 전체 텍스트 키워드 검색 |
|
| arXiv ID로 논문 상세 정보 가져오기 |
|
| 임베딩 + 서지 결합을 통해 유사 논문 찾기 |
|
| 인용 그래프 (발신 참조 또는 수신 인용) |
|
| 복합 점수 기준 오늘의 트렌드 논문 |
|
| 여러 논문을 한 번에 조회 |
|
논문 콘텐츠
도구 | 설명 | 주요 매개변수 |
| LaTeX 소스에서 결과/실험 추출 |
|
| GitHub 저장소 README + 파일 트리 가져오기 |
|
| 논문 BibTeX 내보내기 |
|
| 논문의 구조화된 벤치마크 결과 |
|
벤치마크 및 방법론
도구 | 설명 | 주요 매개변수 |
| 이름으로 데이터셋/벤치마크 찾기 |
|
| 데이터셋에 대한 SOTA 리더보드 |
|
| 점수 분포 통계 (최소, 최대, 중앙값 등) |
|
| 시간에 따른 원시 점수 데이터 포인트 |
|
| 기술 이름으로 검색 (LoRA, YOLO, DPO 등) |
|
| 벤치마크 전반에 걸친 모델 비교 |
|
저자
도구 | 설명 | 주요 매개변수 |
| 주제나 이름으로 연구자 찾기 |
|
| 상세 저자 프로필 (h-index, 주제, 주요 논문) |
|
| 저자의 모든 논문 (페이지네이션) |
|
연구
도구 | 설명 | 주요 매개변수 |
| 주제에 대한 집계된 환경 통계 |
|
| 다중 라운드 연구 합성 (30-120초) |
|
| 완료된 연구 보고서에 대한 후속 질문 |
|
유틸리티
도구 | 설명 | 주요 매개변수 |
| API 키 확인, 플랜 및 사용량 표시 | — |
참신성 점수
모든 논문은 0.0에서 1.0 사이의 llm_novelty_score를 가집니다:
범위 | 의미 | 예시 |
0.7+ | 패러다임 전환 또는 광범위한 SOTA | 분야를 바꾸는 새로운 아키텍처 |
0.5-0.7 | 확실한 결과가 있는 새로운 방법 | 명확한 이득이 있는 새로운 학습 기법 |
0.3-0.5 | 점진적 개선 | 알려진 방법을 새로운 도메인에 적용 |
<0.3 | 설문, 데이터셋 또는 사소한 확장 | 문헌 검토, 벤치마크 릴리스 |
search_papers에서 novelty_min: 0.5를 사용하여 진정으로 참신한 연구를 필터링하세요.
속도 제한
엔드포인트 | 제한 |
| 60/분 |
| 30/분 |
| 60/분 |
| 20/분 |
| 30/분 |
| 30/분 |
| 10/분 |
| 20/분 |
| 10/분 |
| 20/분 |
| 5/분 |
| 5/분 |
| 30/분 |
| 30/분 |
| 30/분 |
| 30/분 |
| 30/분 |
| 20/분 |
| 20/분 |
| 60/분 |
| 30/분 |
| 10/분 |
| 30/분 |
응답에는 X-RateLimit-Limit, X-RateLimit-Remaining, X-RateLimit-Reset 헤더가 포함됩니다.
응답 예시
q: "attention mechanism"을 사용한 search_papers 결과:
{
"papers": [
{
"arxiv_id": "2401.04088",
"title": "Attention Is All You Need (But Not All You Get)",
"authors": ["A. Researcher", "B. Scientist"],
"year": 2024,
"categories": ["cs.LG", "cs.AI"],
"primary_category": "cs.LG",
"arxiv_url": "https://arxiv.org/abs/2401.04088",
"has_code": true,
"github_url": "https://github.com/example/repo",
"citation_count": 42,
"rank_score": 0.73,
"llm_summary": "Proposes a sparse attention variant that reduces compute by 60% while matching dense attention accuracy on 5 benchmarks.",
"llm_novelty_score": 0.55
}
],
"total": 1847,
"page": 1,
"limit": 20,
"next_cursor": "eyJzIjogMC43MywgImlkIjogIjI0MDEuMDQwODgifQ=="
}next_cursor를 다시 전달하여 다음 페이지를 가져오세요 (키셋 페이지네이션 — 대규모 결과 세트의 경우 페이지 번호보다 안정적입니다).
설치 확인
설정 후 AI 어시스턴트에게 check_connection을 실행하도록 요청하세요. 다음과 같이 표시되어야 합니다:
{
"status": "ok",
"plan": "free",
"key_name": "my-key",
"usage_today": 0
}환경 변수
변수 | 필수 | 기본값 | 설명 |
| 예 | — | Scholar Feed API 키 ( |
| 아니요 | 프로덕션 URL | API 기본 URL 재정의 |
개발
npm install
npm run build # Build to build/
npm run dev # Watch mode
npm run typecheck # Type check without emitting
npm test # Run tests기여
지침은 CONTRIBUTING.md를 참조하세요.
문제 해결
"SF_API_KEY environment variable is required"
MCP 클라이언트가 환경 변수를 전달하지 않고 있습니다. 구성의 env 블록이 위의 예시와 일치하는지 다시 확인하세요.
"Authentication failed: your SF_API_KEY is invalid" 키가 취소되었을 수 있습니다. scholarfeed.org/settings에서 새 키를 생성하세요.
도구 호출 시간 초과 또는 조용히 실패
Node.js 18+가 설치되어 있는지 확인하세요 (node --version). 이전 버전에는 기본 fetch API가 없습니다.
오래된 npx 캐시
업데이트 후 이전 버전에 머물러 있는 경우: npx --yes scholar-feed-mcp@latest
Windows: "command not found"
MCP 구성에서 "command": "cmd"와 "args": ["/c", "npx", "-y", "scholar-feed-mcp"]를 사용하세요.
라이선스
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/YGao2005/scholar-feed-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server