Allows retrieving scientific dataset metadata from the RePOD repository using Digital Object Identifiers (DOI).
Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@Polish Academic MCPfind recent research articles about renewable energy in Poland"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
Polish Academic MCP
Zdalny serwer MCP działający na Cloudflare Workers, który udostępnia dziesięć polskich baz danych jako narzędzia wywoływane przez AI.
MCP (Model Context Protocol) to otwarty standard pozwalający modelom językowym (Claude, GPT, Bielik.AI itp.) na wywoływanie zewnętrznych narzędzi i API w ustandaryzowany sposób.
WAŻNE! Serwer zdalny (link do cloudflare) zbiera domyślnie anonimowe dane ewaluacyjne z każdego zapytania narzędzia MCP jako dane do dalszych badań i ewaluacji, czyli jak używasz tego narzędzia to tak jakbyś wypełniał dla mnie ankietę do badań <3 Dzięki za zrozumienie!
Jeśli nie chcesz przekazywać mi danych badawczych wystarczy odpalić serwer lokalnie ;)
Autoreklama: Token JWT i wsparcie dla OAuth
Jeśli interesuje Ciebie większy rate limiting i w tym wsparcie do OAuth co da ci możliwość podpiąć MCP np. pod Perplexity to napisz na artur@sendyka.dev z zapytaniem. Jeśli wykorzystanie będzie znaczne (no tak powyżej 100 requestów na dobę) czy komercyjne to niestety będzie to już odpłatne.
Dostępne bazy danych i narzędzia
Narzędzie | Baza danych | Opis |
| Przeszukiwanie polskich artykułów naukowych (OAI-PMH) | |
| Biblioteka Nauki | Pobranie szczegółów artykułu po ID |
| Wyszukiwanie publikacji z Repozytorium Jagiellońskiego | |
| RUJ | Pobranie metadanych pozycji po UUID |
| Wyszukiwanie prac i publikacji AGH w Krakowie | |
| AGH | Pobranie metadanych pozycji po UUID |
| Wyszukiwanie publikacji Uniwersytetu Adama Mickiewicza | |
| AMU | Pobranie metadanych pozycji po UUID |
| Wyszukiwanie publikacji Akademii Nauk Stosowanych w Nowym Sączu | |
| UAFM | Pobranie metadanych pozycji po UUID |
| Wyszukiwanie danych badawczych ICM UW | |
| ICM | Pobranie metadanych pozycji po UUID |
| Wyszukiwanie zbiorów danych badawczych uczelni krakowskich | |
| Wyszukiwanie polskich otwartych danych badawczych | |
| RePOD | Pobranie metadanych zbioru danych po DOI |
| Wyszukiwanie danych otwartych z portalu rządowego | |
| dane.gov.pl | Pobranie szczegółów zbioru danych po ID |
| Aktualne odczyty ze stacji synoptycznych (pogodowych) | |
| IMGW-PIB | Aktualne odczyty z wodowskazów i stacji hydrologicznych |
| IMGW-PIB | Aktualne odczyty ze stacji meteorologicznych |
| IMGW-PIB | Aktywne ostrzeżenia meteorologiczne i hydrologiczne |
Wszystkie bazy oferują otwarty, nieuwierzytelniony dostęp do odczytu — żadne klucze API nie są wymagane.
Wymagania dla developmnetu
Node.js 18 lub nowszy
Konto Cloudflare (darmowe)
Wrangler CLI (instalowany jako zależność deweloperska)
Instalacja i uruchomienie lokalne
# 1. Sklonuj repozytorium
git clone https://github.com/asterixix/polish-academic-mcp.git
cd polish-academic-mcp
# 2. Zainstaluj zależności
npm install
# 3. Uruchom serwer deweloperski
npm run dev
# → Serwer MCP dostępny pod adresem http://localhost:8788/mcpTestowanie z MCP Inspector
npx @modelcontextprotocol/inspector@latest
# Otwórz http://localhost:5173
# W polu "Server URL" wpisz: http://localhost:8788/mcp
# Kliknij "Connect"Wdrożenie na Cloudflare Workers
Krok 1 — Zaloguj się do Cloudflare
npx wrangler loginKrok 2 — Utwórz przestrzenie nazw KV
npx wrangler kv namespace create "CACHE_KV"
# Skopiuj zwrócone "id" i wklej do wrangler.jsonc jako id dla CACHE_KV
npx wrangler kv namespace create "RATE_LIMIT_KV"
# Skopiuj zwrócone "id" i wklej do wrangler.jsonc jako id dla RATE_LIMIT_KVKrok 3 — Zaktualizuj wrangler.jsonc
Otwórz wrangler.jsonc i zastąp wartości placeholder prawdziwymi ID:
"kv_namespaces": [
{
"binding": "CACHE_KV",
"id": "WKLEJ_TUTAJ_ID_CACHE_KV",
"preview_id": "WKLEJ_TUTAJ_ID_CACHE_KV"
},
{
"binding": "RATE_LIMIT_KV",
"id": "WKLEJ_TUTAJ_ID_RATE_LIMIT_KV",
"preview_id": "WKLEJ_TUTAJ_ID_RATE_LIMIT_KV"
}
]Krok 4 — Wdróż
npm run deploy
# → Dostępny pod adresem: https://polish-academic-mcp.<twoje-konto>.workers.dev/mcpPodłączenie klientów MCP
Claude Desktop
Dodaj do pliku konfiguracyjnego Claude Desktop (claude_desktop_config.json):
{
"mcpServers": {
"polish-academic": {
"command": "npx",
"args": ["mcp-remote", "https://polish-academic-mcp.kolpol25.workers.dev/mcp"]
}
}
}Lokalizacja pliku konfiguracyjnego:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows:
%APPDATA%\Claude\claude_desktop_config.json
Claude.ai (Connector)
Przejdź do Ustawienia → Connectors → Dodaj własny connector
Wpisz URL serwera:
https://polish-academic-mcp.kolpol25.workers.dev/mcpKliknij Zapisz
Podłączenie z OpenAI / ChatGPT
ChatGPT.com (plan Plus / Pro / Team / Enterprise)
ChatGPT obsługuje zdalne serwery MCP przez protokół Streamable HTTP.
Otwórz ChatGPT.com i zaloguj się
Przejdź do Ustawienia (Settings) → Połączone aplikacje (Connected apps)
Kliknij Dodaj narzędzia (Add tools) → Serwer MCP (MCP server)
Wpisz URL serwera:
https://polish-academic-mcp.kolpol25.workers.dev/mcpNadaj nazwę (np.
Polish Academic) i zapisz
Narzędzia będą dostępne podczas każdej rozmowy.
Uwaga: Funkcja dostępna dla subskrybentów ChatGPT Plus i wyższych planów. Opcja może znajdować się w innym miejscu menu w zależności od wersji interfejsu.
OpenAI Responses API (Python — programistycznie)
Biblioteka openai-agents (Python) obsługuje zdalne serwery MCP natywnie:
pip install openai-agentsimport asyncio
from agents import Agent, Runner
from agents.mcp import MCPServerSse
async def main():
async with MCPServerSse(
url="https://polish-academic-mcp.kolpol25.workers.dev/mcp"
) as mcp_server:
agent = Agent(
name="Asystent Naukowy",
model="gpt-4o",
mcp_servers=[mcp_server],
)
result = await Runner.run(
agent,
"Wyszukaj artykuły o fotosytezie z Biblioteki Nauki",
)
print(result.final_output)
asyncio.run(main())Możesz również użyć serwera MCP bezpośrednio przez Responses API:
from openai import OpenAI
client = OpenAI() # OPENAI_API_KEY z env
response = client.responses.create(
model="gpt-4o",
tools=[{
"type": "mcp",
"server_url": "https://polish-academic-mcp.kolpol25.workers.dev/mcp",
"server_label": "polish-academic",
"require_approval": "never",
}],
input="Znajdź polskie publikacje o uczeniu maszynowym",
)
print(response.output_text)Podłączenie z Google Gemini
Gemini CLI
Gemini CLI obsługuje serwery MCP przez plik konfiguracyjny.
Edytuj plik ~/.gemini/settings.json (utwórz jeśli nie istnieje):
{
"mcpServers": {
"polish-academic": {
"httpUrl": "https://polish-academic-mcp.kolpol25.workers.dev/mcp"
}
}
}Po zapisaniu pliku uruchom Gemini CLI normalnie — narzędzia będą dostępne automatycznie:
gemini "Wyszukaj publikacje o astrofizyce w repozytorium Jagiellońskim"Google AI Studio / Vertex AI Agent Builder
Otwórz projekt lub stwórz nowy
Przejdź do zakładki Tools → Add MCP server
Wpisz URL:
https://polish-academic-mcp.kolpol25.workers.dev/mcpZapisz i przetestuj w Playground
Dla Vertex AI Agent Builder konfiguracja jest analogiczna w zakładce Tools → Extensions → MCP.
Google ADK (Agent Development Kit — Python)
pip install google-adkfrom google.adk.agents import Agent
from google.adk.tools.mcp_tool import MCPToolset, SseServerParams
academic_tools = MCPToolset(
connection_params=SseServerParams(
url="https://polish-academic-mcp.kolpol25.workers.dev/mcp"
)
)
agent = Agent(
name="asystent_naukowy",
model="gemini-2.0-flash",
tools=[academic_tools],
instruction="Pomagasz w wyszukiwaniu polskiej literatury naukowej.",
)Podłączenie z Perplexity
Perplexity nie obsługuje natywnie protokołu MCP w interfejsie webowym.
Możliwe podejścia:
Przez OpenAI-compatible SDK (Sonar API + narzędzia)
Perplexity Sonar API jest zgodne z formatem OpenAI. Możesz opisać narzędzia MCP ręcznie jako schematy funkcji:
from openai import OpenAI
client = OpenAI(
api_key="<twój-klucz-perplexity>",
base_url="https://api.perplexity.ai",
)
# Przykładowe wywołanie z function calling
tools = [
{
"type": "function",
"function": {
"name": "ruj_search",
"description": "Szuka publikacji w Repozytorium UJ",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "Zapytanie"},
"page": {"type": "integer", "default": 0},
"size": {"type": "integer", "default": 10},
},
"required": ["query"],
},
},
}
]
response = client.chat.completions.create(
model="sonar-pro",
messages=[{"role": "user", "content": "Znajdź artykuły o kwantach"}],
tools=tools,
)Wywołania narzędzi musisz następnie obsłużyć ręcznie, przekazując je do serwera MCP przez HTTP.
Przez mcp-remote (lokalny proxy)
Jeśli używasz lokalnego klienta zgodnego z OpenAI tools, możesz uruchomić mcp-remote jako most:
# Zainstaluj mcp-remote
npm install -g mcp-remote
# Uruchom proxy (przekazuje wywołania MCP ↔ HTTP)
npx mcp-remote https://polish-academic-mcp.kolpol25.workers.dev/mcpProxy nawiązuje lokalne połączenie stdio, z którego możesz korzystać w dowolnym narzędziu obsługującym MCP stdio.
Inne klienty MCP
Wyślij żądanie HTTP POST do /mcp z nagłówkiem Accept: application/json, text/event-stream i treścią JSON-RPC 2.0.
Limity i buforowanie
Ograniczenie liczby żądań (Rate Limiting)
10 wywołań narzędzi na godzinę na adres IP klienta
Żądania protokołu (inicjalizacja, lista narzędzi, ping) nie są wliczane do limitu
Przy przekroczeniu limitu serwer zwraca HTTP 429 z nagłówkiem
Retry-After
Cache odpowiedzi API
Odpowiedzi z zewnętrznych API są buforowane w Cloudflare KV:
Baza danych | TTL cache |
Biblioteka Nauki, RUJ, AGH, AMU, UAFM, ICM, RODBuK, RePOD | 24 godziny |
dane.gov.pl, IMGW-PIB | 1 godzina |
Eksport danych ewaluacyjnych do Nextcloud (WebDAV)
Jeśli ustawisz EVAL_WEBDAV_ENABLED=true (w wrangler.jsonc/env), serwer zapisuje dane
ewaluacyjne dla każdego wywołania MCP tools/call do Nextcloud przez WebDAV.
Wymagane zmienne:
NEXTCLOUD_WEBDAV_BASE_URLNEXTCLOUD_WEBDAV_USERNAMENEXTCLOUD_WEBDAV_PASSWORD
Opcjonalne:
NEXTCLOUD_WEBDAV_PATH_PREFIX(domyślniemcp-eval)EVAL_WEBDAV_MAX_JSON_BYTES(domyślnie120000)
Dla każdego tools/call robione jest PUT pliku JSON do WebDAV:
NEXTCLOUD_WEBDAV_PATH_PREFIX/<tool>-<timestamp>-<uuid>.json.
Plik zawiera surową odpowiedź (w tym _span) oraz pole rqEval — policzone metryki
RQ1–RQ4, o ile wywołanie pasuje do przypadku testowego z scripts/eval/test-cases.ts.
Limity ogólne
Zasób | Limit |
Żądania | 100 000 / dobę |
Czas CPU | 10 ms / wywołanie |
Odczyty KV | 100 000 / dobę |
Zapisy KV | 1 000 / dobę |
Pamięć Worker | 128 MB |
Architektura techniczna
Klient MCP (Claude)
│ HTTP POST /mcp (JSON-RPC 2.0)
▼
Cloudflare Worker (index.ts)
├── Rate limit check (RATE_LIMIT_KV)
└── createMcpHandler(createServer(env))
└── tools/
├── biblioteka-nauki.ts → https://bibliotekanauki.pl/api/oai/
├── ruj.ts → https://ruj.uj.edu.pl/server/api/
├── agh.ts → https://repo.agh.edu.pl/server/api/
├── amu.ts → https://repozytorium.amu.edu.pl/server/api/
├── uafm.ts → https://repozytorium.uafm.edu.pl/server/api/
├── icm.ts → https://open.icm.edu.pl/server/api/
├── rodbuk.ts → https://rodbuk.pl/api/
├── repod.ts → https://repod.icm.edu.pl/api/
├── dane.ts → https://api.dane.gov.pl/1.4/
└── imgw.ts → https://danepubliczne.imgw.pl/api/data/Kluczowe decyzje projektowe:
Bezstanowy — nowa instancja
McpServerna każde żądanie (wymagane od SDK 1.26.0)Durable Objects tylko dla orkiestracji pipeline — MCP tools pozostają stateless
Kompaktowe podsumowania JSON dla repozytoriów DSpace 7 (RUJ, AGH, AMU, UAFM, ICM) zamiast surowego HAL+JSON — zmniejsza zużycie tokenów
Surowe odpowiedzi XML/JSON dla API bez warstwy normalizacji (Biblioteka Nauki, dane.gov.pl, IMGW) — oszczędza czas CPU
Normalizacja wyników Dataverse dla
rodbuk_searchirepod_searchdo stabilnych pól (title,author,date,doi) przy zachowaniu danych źródłowychFire-and-forget zapisy do KV — nie blokują odpowiedzi
Aktualizacje implementacji (RQ3/RQ4)
W ramach hardeningu ewaluacji dodano:
Tryb minimalizacji danych osobowych (
minimize_pii) w:ruj_search— ukrywa pola autorów/afiliacji i redaguje typowe wzorce PII,bn_search_articles— redaguje wzorce PII w odpowiedzi XML (m.in. ORCID, e-mail, PESEL-like, phone-like).
Normalizację odpowiedzi Dataverse w:
rodbuk_search,repod_search.
Fallback odpornościowy w
bn_search_articles:gdy zapytanie z restrykcyjnym
setzwrócinoRecordsMatch, narzędzie ponawia zapytanie raz bezset(z zachowaniemfrom_date/until_dateimetadata_format).
Domyślne zachowanie narzędzi pozostaje bezpieczne wstecznie (minimize_pii=false), więc istniejące integracje nie wymagają zmian.
Pipeline wieloagentowy (narzędzia pipeline_*)
Repo udostępnia narzędzia MCP zaprojektowane jako klocki do budowy systemu wieloagentowego (LLM jako orchestrator/agent, a Worker jako backend do danych i walidacji).
Każde narzędzie pipeline_* zwraca JSON jako content[0].text i jest nastawione na deterministyczne przygotowanie kolejnych kroków:
pipeline_discover_publications: generuje listę planowanych wywołań bazowych narzędzi wyszukujących (np.ruj_search,agh_search), które orchestrator wykona w następnym kroku.pipeline_extract_metadata: na podstawie wyników wyszukiwania (kompaktowe JSON summary / lekkie parsowanie XML) przygotowuje listę*_get_item/bn_get_articledo pobrania pełnych rekordów.pipeline_classify_document: przygotowuje instrukcje i wymagany format wyniku klasyfikacji (np. UKD) do wykonania przez zewnętrzny agent.pipeline_quality_check: uruchamia walidację jakości (evalResponse) dla wygenerowanej odpowiedzi i oznaczarequires_revision.pipeline_prepare_author_outreach: przygotowuje plan komunikacji autorów z bramką bezpieczeństwa — draft jest zwracany tylko gdyapproval_decision="approved"oraz (opcjonalnie)open_access=true.
Sterowanie pipeline przez endpointy (HITL + trwałość)
Pipeline katalogowania jest uruchamiany jako durable orchestration:
POST /pipeline/startstartuje workflow
CATALOGUING_PIPELINEi tworzy instancję durablePipelineAgentprzykładowy payload:
user_id: stringinstitution_query: stringtopics?: string[]language?: "pl" | "en" | "mixed"bn_set?: stringmax_items_per_job?: number(domyślnie5)require_open_access?: boolean(domyślnietrue)job_id?: string(opcjonalnie)
odpowiedź:
{ "instanceId": "..." }
POST /pipeline/approvalzamyka krok
waitForApprovalw workflow i odblokowuje generowanie draftów podecision="approved"wymaga autoryzacji dla bypass rate limit:
nagłówek
Authorization: Bearer <jwt>z claimrl_bypass=truelub scope zawierającymratelimit:bypassalternatywnie token równy
RATE_LIMIT_BYPASS_JWT_SECRET(tryb pre-shared)
przykładowy payload:
instanceId: stringapprovedBy: stringdecision: "approved" | "rejected"reason?: string
GET /pipeline/status?instanceId=... zwraca snapshot statusu instancji workflow (wait-for-approval, running, complete, error itp.) do UI/debug.
Uwaga: w aktualnym kodzie nie ma endpointu do pobrania finalnych outreachDrafts przez HTTP.
Wymagane exporty w entrypoint
Żeby Wrangler poprawnie mapował bindings z wrangler.jsonc, moduł entrypoint (src/index.ts) eksportuje:
PipelineAgentCataloguingPipelineWorkflow
Ewaluacja wieloagentowa
Skrypt ewaluacyjny (scripts/eval/runner.ts) obsługuje przypadki wielokrokowe przez opcjonalne pole scenario w scripts/eval/test-cases.ts.
scenario.stepsto lista narzędzi MCP wykonywanych sekwencyjnie.scenario.scoreFromStepIdwskazuje, z którego kroku bierzemy odpowiedź do metryk RQ.
Dla nowych narzędzi pipeline dodano testy w scripts/eval/test-cases.ts (m.in. RQ4-013..RQ4-015 oraz MA-001).
Uruchomienie: npm run eval:rq4 (zawiera testy outbound gate oraz scenariusz MA-001).
Rozwój i wkład
Przeczytaj CONTRIBUTING.md — wskazówki dotyczące zgłaszania błędów, propozycji nowych baz danych i tworzenia pull requestów.
Dla agentów AI kodujących w tym projekcie: przeczytaj AGENTS.md.
Licencja
MIT © 2026 Artur Sendyka vel. asterixix na poczet Polskiej Nauki z wykorzystaniem AI
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.