studiomeyer-geo
StudioMeyer GEO
KI-Sichtbarkeitsüberwachung über 8 LLM-Plattformen hinweg. 23 MCP-Tools + 5 Experten-Workflows. Kostenlose Stufe: 19 Tools ohne API-Schlüssel.
Was ist das?
StudioMeyer GEO prüft, wie sichtbar Ihre Marke für KI-Assistenten ist — über ChatGPT, Gemini, Perplexity, Claude, Grok, DeepSeek, Meta AI und Copilot. Anstatt zu raten, erhalten Sie konkrete Bewertungen, Zitate und umsetzbare Korrekturen.
23 Experten-Tools für KI-Sichtbarkeitsprüfungen, Discovery-Stack-Audits, robots.txt-Analyse, JSON-LD-Validierung, Entitätskonsistenz, Inhaltsaktualität, GEO-Score-Simulation, Zitationsquellenanalyse, Inhalts-Audits (basierend auf dem KDD 2024 GEO-Paper), Wettbewerbsvergleich und historische Trendverfolgung.
19 von 23 Tools funktionieren ohne LLM-API-Schlüssel — Onboarding zum Nulltarif.
In 10 Sekunden verbinden
Claude Desktop / Cowork
Einstellungen → Connectors → URL hinzufügen:
https://geo.studiomeyer.io/mcpClaude Code
claude mcp add --transport http geo https://geo.studiomeyer.io/mcpCursor / VS Code / Windsurf / Zed
npx mcp-remote https://geo.studiomeyer.io/mcpTools (23)
Basis-Tools (7)
Tool | Beschreibung | API-Schlüssel |
| Vollständige GEO-Prüf-Pipeline über 8 LLM-Plattformen | Ja (1+) |
| llms.txt + agents.json + robots.txt + JSON-LD + Sitemap + FAQ-Schema | Nein |
| Reine Bewertungsfunktion aus Rohdaten | Nein |
| Prüfung der LLM-Plattform-Bereitschaft (8 Plattformen) | Nein |
| Prompts in der Vorschau anzeigen, ohne API-Aufrufe zu tätigen | Nein |
| Eine einzelne LLM-Antwort auf Markenerwähnungen analysieren | Nein |
| Umsetzbare Empfehlungen aus Bewertungen generieren | Nein |
Spezial-Tools (9)
Tool | Beschreibung | API-Schlüssel |
| Tiefe robots.txt-Analyse mit 14-KI-Bot-Matrix | Nein |
| Validierung von llms.txt gegen die llmstxt.org-Spezifikation mit Link-Prüfung | Nein |
| Extrahieren und Prüfen von strukturierten JSON-LD-Daten | Nein |
| Suche nach Markennamen-Varianten (fragmentiert = 2,8x weniger KI-Zitate) | Nein |
| Prüfung von Last-Modified, og:modified_time, schema dateModified | Nein |
| Schätzung des GEO-Scores ohne API-Schlüssel (~30s, kostenlos) | Nein |
| Generierung fehlender JSON-LD-Blöcke zum Einfügen | Nein |
| Zitierfähigkeits-Score: Autoritätslinks, Statistiken, sameAs, Zitate | Nein |
| Tiefgreifendes GEO-Audit einer einzelnen Seite, 10 Dimensionen (KDD 2024 Paper) | Nein |
Vergleichs- + Agentur-Tools (3)
Tool | Beschreibung | Stufe |
| GEO-Vergleich zweier Marken nebeneinander | Kostenlos |
| Mehrmarken-Verwaltung (auflisten/hinzufügen/entfernen/Dashboard) | Team |
| Massen-GEO-Prüfung über alle verfolgten Marken | Team |
Pro-Tools (4)
Tool | Beschreibung | Stufe |
| Frühere Prüfungsergebnisse mit Score-Verlauf | Pro |
| Score-Trends: Delta, Richtung, Min/Max/Durchschnitt | Pro |
| Automatisierte Prüfungen (täglich/wöchentlich/monatlich) | Pro |
| Benachrichtigungen bei Score-Abfall / neuen Problemen / gelösten Problemen | Pro |
MCP-Prompts (5 Experten-Workflows)
Prompt | Anwendungsfall |
| Komplette Kette aller Spezialisten + Management-Bericht |
| Nur API-freie Prüfungen, ~30 Sekunden, schnelle Erfolge |
| 8-Punkte-Checkliste für den Start mit BLOCK/PASS-Schranken |
| Entdecken, welche Marken die KI anstelle Ihrer eigenen empfiehlt |
| Prüfung ausführen + Ergebnisse speichern + mit früheren Läufen vergleichen |
GEO-Score (0-100)
Sechs gewichtete Unterbewertungen:
Markenbekanntheit (25%) — Wie oft LLMs Ihre Marke erwähnen
Zitationsstärke (20%) — URL-Zitate und Quellenlinks
Share of Voice (20%) — Ihre Marke im Vergleich zu Wettbewerbern
Sentiment (10%) — Positive/negative/neutrale Wahrnehmung
Discovery Stack (15%) — Technische KI-Bereitschaft (llms.txt, agents.json, JSON-LD, etc.)
Inhaltsqualität (10%) — Aktualität, strukturierte Daten, FAQ-Schema
Bewertung: 80+ exzellent · 65+ gut · 40+ verbesserungswürdig · 20+ schwach · <20 kritisch
Was macht dies anders
Funktion | Ahrefs Brand Radar | Profound | Peec AI | Otterly | StudioMeyer GEO |
Kostenlose Stufe | — | — | — | — | 19 Tools |
LLM-Plattformen | 6 | 10+ | 4 | 6 | 8 |
MCP-nativ | — | — | — | — | Ja |
Discovery Stack-Tiefe | — | — | — | — | Ja |
Korrekturhilfe + Schema-Gen | — | — | Teilweise | Teilweise | Ja |
Inhalts-Audit (KDD 2024) | — | — | — | — | Ja |
Zitationsquellenanalyse | — | — | — | — | Ja |
Startpreis | ~700€/Monat | 399€/Monat | 89€/Monat | 29€/Monat | Kostenlos |
Preisgestaltung
Plan | Preis | Beinhaltet |
Kostenlos | 0€ | 23 Tools, 8 Plattformen, gehostetes MCP, OAuth 2.1 |
Pro | 49€/Monat | Verlauf, Trends, geplante Prüfungen, Benachrichtigungen, PDF-Berichte |
Team | 99€/Monat | Mehrmarken-Dashboard, Agentur-Funktionen, Massenprüfungen |
Managed Monitoring | 499€/Monat | Monatlicher Management-Bericht + vierteljährliches Strategiegespräch |
Full GEO Service | 999€ + 299€/Monat | Komplett-Service: Beratung + Implementierung |
Beispiel: Schnelles Audit
You: /geo_quick_wins url=https://example.com
Claude runs 9 API-free specialist checks:
✓ robots.txt AI-bot audit (14 bots)
✓ llms.txt validation
✓ JSON-LD structured data audit
✓ Entity consistency scan
✓ Content freshness check
✓ Discovery stack completeness
✓ Citation source analysis
✓ GEO score simulation
✓ Schema generator (missing blocks)
Result: Estimated score, issues found, prioritized fix list with copy-paste JSON-LDOptional: Zeitverlauf verfolgen mit StudioMeyer Memory
Verbinden Sie StudioMeyer Memory, um GEO-Prüfungen automatisch über Sitzungen hinweg zu speichern:
claude mcp add --transport http memory https://memory.studiomeyer.io/mcpVerwenden Sie dann /geo_track_over_time — Claude speichert die Ergebnisse in Memory und zeigt Trends an.
Support
Landingpage: studiomeyer.io/services/geo-mcp
E-Mail: hello@studiomeyer.io
Erstellt von StudioMeyer — KI-Agentur aus Spanien
Lizenz
Proprietär. Kostenlose Stufe verfügbar. Siehe Nutzungsbedingungen.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/studiomeyer-io/studiomeyer-geo'
If you have feedback or need assistance with the MCP directory API, please join our Discord server